Amazon reforça a aposta na Anthropic com 25 mil milhões de dólares: 5GW de capacidade informática, vinculação da AWS para mil milhões

De acordo com os comunicados oficiais da Anthropic e com o comunicado oficial da Amazon, ambas as partes expandem a cooperação estratégica em 4/20: a Amazon adiciona um investimento de até 25 mil milhões de dólares na Anthropic, enquanto a Anthropic se compromete a que, nos próximos dez anos, a sua despesa na AWS ultrapasse os 100 mil milhões de dólares, e a obter até 5GW de capacidade de computação adicional, para treinar e implementar modelos Claude.

Esta é a segunda grande expansão de peso da corrida armamentista por capacidade computacional da Anthropic, depois da parceria de 4/7 entre a Anthropic e a Google e a Broadcom para obter capacidade de computação TPU de 3,5GW; é também o maior compromisso da Amazon com uma única empresa de IA, pelo que a avaliação da Anthropic fica fixada em 380 mil milhões de dólares.

Estrutura do investimento: 5 mil milhões para adiantamento, 20 mil milhões vinculados a marcos

O investimento da Amazon nesta ronda é dividido em duas fases: 5 mil milhões de dólares são desembolsados imediatamente na data do anúncio, e outros até 20 mil milhões de dólares são libertados faseadamente, após a sua vinculação a “marcos comerciais específicos”. Somando aos 8 mil milhões de dólares já investidos anteriormente, o limite máximo de investimento acumulado da Amazon na Anthropic ascenderá a 33 mil milhões de dólares.

Estes 5 mil milhões de dólares são feitos ao entrar na participação pela avaliação mais recente da Anthropic de 38 mil milhões de dólares; trata-se também da primeira vez que essa avaliação é confirmada por um investidor de primeira linha através de um novo contrato.

A Anthropic compromete-se com 100 mil milhões de dólares de despesa na AWS em dez anos

Como contrapartida da cooperação, a Anthropic compromete-se a que, nos próximos dez anos, a sua despesa na AWS ultrapasse os 100 mil milhões de dólares, abrangendo os chips de IA personalizados Trainium das gerações atuais e futuras, bem como CPUs de uso geral Graviton “com dezenas de milhões de núcleos”.

Andy Jassy (CEO da Amazon) afirmou no comunicado: “Ao comprometermo-nos a que, nos próximos dez anos, os grandes modelos de linguagem sejam executados na AWS Trainium, refletimos os progressos conjuntos no nosso caminho de chips personalizados.” Dario Amodei (CEO da Anthropic) acrescentou: “Os utilizadores dizem-nos que o Claude é cada vez mais importante para o seu trabalho; temos de construir uma infra-estrutura capaz de acompanhar o crescimento da procura.”

Roteiro de capacidade de computação de 5GW: toda a família Trainium2, 3 e 4 bloqueada

Este acordo abrange os três anos de chips Trainium2, Trainium3 e Trainium4, e a Anthropic mantém a opção de comprar chips personalizados das gerações subsequentes. Em termos de calendário, no 2.º trimestre de 2026 haverá uma entrada em grande escala de capacidade de Trainium2; a capacidade de Trainium3 será disponibilizada gradualmente até ao fim do ano, e a soma anual de Trainium2 e Trainium3 totalizará quase 1GW.

Project Rainier é o projeto principal de cooperação já existente entre ambas as partes; este cluster de treino já implantou cerca de 500 mil chips Trainium2, que são a infra-estrutura base principal para o treino de modelos Claude.

Receitas de 9 mil milhões a 30 mil milhões: a explosão da procura da Anthropic como força motriz da negociação

No comunicado, a Anthropic revela de forma rara o seu estado financeiro: as receitas anuais já ultrapassaram 30 mil milhões de dólares. Em comparação com os 9 mil milhões de dólares no final de 2025, é mais do que o triplo num semestre. O número de clientes empresariais que executam o Claude na AWS já ultrapassou as 100 mil empresas; e, na plataforma Amazon Bedrock, o Claude está entre as famílias de modelos com maior utilização.

A Anthropic também admite que a explosão da procura levou a que a infra-estrutura fosse submetida a pressão nos períodos de ponta, afetando a disponibilidade e a performance—e é precisamente essa a motivação direta para a expansão significativa da capacidade de computação neste momento. A recente controvérsia sobre a tokenizer do Claude Opus 4.7 e os ajustes às restrições de utilização também estão relacionados com esta realidade de “infra-estrutura mais apertada”.

Três vias de capacidade de computação acopladas: AWS, Google e chips próprios em paralelo

Além dos 3,5GW de capacidade de computação TPU da parceria entre a Anthropic e a Broadcom e a Google, anunciada mais cedo em abril, a Anthropic já está simultaneamente vinculada às duas rotas de chips personalizados, a AWS Trainium e a Google TPU, e mantém uma opção de longo prazo para aceleradores próprios. Isto contrasta com o caminho da OpenAI, que segue “principalmente dependente do Microsoft Azure e, só recentemente, expandindo para a AWS”.

Para a cadeia de abastecimento de semicondutores de Taiwan, a expansão em larga escala da produção de Trainium2 a Trainium4 significa que fornecedores de encapsulamento avançado da TSMC, fornecedores de memória HBM e a Marvell continuarão a assumir encomendas de chips personalizados da AWS nos próximos três a cinco anos.

A solidez da capacidade de computação por trás da corrida pelo IPO

O anúncio desta vez reforça também a base narrativa do IPO da Anthropic. Relatórios recentes revelam que a diferença de receitas entre a OpenAI, com receitas anuais a ultrapassar 25 mil milhões de dólares, e a Anthropic, a perseguir com 19 mil milhões, está a diminuir; com base nos comunicados oficiais, as receitas anuais da Anthropic já atingiram 30 mil milhões de dólares, e a diferença volta a estreitar-se.

Para os investidores, o significado do compromisso da Amazon não está apenas no valor de uma única transação, mas sim na profunda vinculação como “despesa de 100 mil milhões de dólares na AWS nos próximos dez anos”, que permite ao mercado fixar de forma clara um ponto de referência na oferta de capacidade de computação da Anthropic e na estrutura de custos a longo prazo. A elevada barreira do modelo Project Glasswing Mythos e a capacidade de computação subsequente para treino da série Claude 4.x serão suportadas por estas novas 5GW.

Este artigo “Amazon reforça com 25 mil milhões de dólares na Anthropic: 5GW de capacidade de computação e vinculação de mil milhões de dólares à AWS” surgiu mais cedo em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek Atrasar o Lançamento do V4 para Optimizar para os Chips Ascend da Huawei

Mensagem do Gate News, 27 de Abril — A DeepSeek adiou o lançamento do seu modelo V4 para fazer afinações na sua pilha de software para os chips Ascend da Huawei, reflectindo a iniciativa mais ampla de Pequim para desenvolver uma cadeia de abastecimento de IA nacional à medida que o acesso a semicondutores estrangeiros avançados se torna cada vez mais limitado. DeepSe

GateNews14m atrás

DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens

Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8. Na sequência de ambas as

GateNews9h atrás

OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria

Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.

GateNews9h atrás

Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API

Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4

GateNews15h atrás

Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!

O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»! Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA

ChainNewsAbmedia16h atrás

A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores

A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.

ChainNewsAbmedia18h atrás
Comentar
0/400
Nenhum comentário