A Anthropic Claude Business Edition foi das primeiras a mudar para faturação por uso. Os “funcionários” de IA ficam mesmo mais baratos?

Quando as empresas se apoiam na “contabilidade de usar a IA em vez de mão de obra para reduzir custos”, a Anthropic mudou as regras do jogo. Este gigante de IA atualizou recentemente a estrutura de faturação do seu plano empresarial do Claude, desagregando o consumo de Claude, Claude Code e Cowork da subscrição mensal de 40 dólares e passando a cobrar separadamente com base na quantidade de Tokens consumidos na prática. Agora, o custo dos “funcionários de IA” parece, afinal, não ser tão barato como o que o mundo diz.

(É possível poupar Tokens com linguagem clássica e conversas com IA? Uma captura de ecrã despoletou uma discussão; engenheiro: afinal, é o inglês que manda)

O fim da era das tarifas fixas: revisão da faturação do plano empresarial do Claude — paga-se o que se utiliza

O relatório do The Information afirma que, num documento empresarial atualizado, a Anthropic escreveu: “A taxa mensal por lugar (seats) cobre apenas o acesso à plataforma e não inclui qualquer utilização; todo o consumo é cobrado separadamente de acordo com as tarifas padrão da API.” No passado, as empresas compravam “tudo incluído”; agora, passaram para “pagamento por uso”.

No regime antigo, a mensalidade por conta empresarial era de cerca de 40 a 200 dólares, com descontos de API de 10% a 15% incluídos. Com o novo plano, embora a subscrição tenha sido reduzida para 20 dólares por mês, todos os descontos de API foram simultaneamente cancelados e as empresas são obrigadas a comprometer-se previamente e a pré-pagarem a estimativa do consumo mensal de Tokens. Não importa se se usa mais ou menos do que o previsto, o valor comprometido é pago na mesma; e quanto maior o compromisso, não resulta num preço unitário mais baixo.

Esta estrutura é uma receita recorrente anualizável e previsível para a Anthropic; para as empresas, é a transferência para estas do custo e do risco associados ao consumo.

“A escassez de recursos de computação” é a verdadeira faísca por detrás do ajuste de preços

A Anthropic chama esta mudança de “otimização do produto”, mas o motor por trás é o custo de computação, que continua elevado. Mesmo que a receita anualizada da Anthropic tenha disparado de 9 mil milhões de dólares para 30 mil milhões de dólares em apenas quatro meses, o que é entregue aos utilizadores não são descontos, mas sim uma reestruturação da composição da receita.

O cerne do problema está na forma como os agentes de IA (AI Agent) consomem recursos: a utilização de um chat tradicional é como “pequenos goles”, mas os fluxos de trabalho dos agentes — que incluem tarefas encadeadas em vários passos, execuções repetidas ou até colaboração entre vários agentes — são “bocados grandes”.

Do lado da oferta, também está apertado. O preço de aluguer de GPUs Blackwell aumentou 48% em dois meses; a CoreWeave aumentou preços em mais de 20% desde o final do ano passado; e bancos dos EUA preveem que a procura por capacidade de computação continue a contrair até 2029. A receita obtida com tarifas fixas já não suportava, há muito, a carga para a Anthropic.

A instabilidade do serviço é o aviso mais real para os clientes empresariais

Além disso, a estabilidade do serviço é outro grande problema. O fundador da Retool, David Hsu, afirmou ao Wall Street Journal que, apesar de o Claude Opus 4.6 ter um desempenho superior ao da OpenAI, no fim ele acabou por levar o seu fluxo de trabalho para a última. A razão é que o serviço do Claude interrompe-se com frequência, fazendo com que muitas vezes não consiga entregar o código a tempo.

No período de 90 dias até 8 de abril deste ano, a API da Anthropic atingiu apenas 98,95% de tempo de funcionamento normal, muito abaixo do padrão de 99,99% praticado na indústria. A decisão de Hsu ilustra uma ideia: na escolha entre fiabilidade do serviço e capacidades do modelo, o que as empresas precisam é de IA com serviço estável.

O custo real dos “funcionários de IA” é muito mais complexo do que o que está na fatura

Hoje, o modelo de preços tradicional baseado em “assinatura mensal” já terminou; o custo total passa a ser recalculado com base no consumo real de Tokens. Negociar descontos de utilização ou cláusulas de ajustabilidade nos contratos, ou controlar ativamente as despesas através da otimização de Prompts, processamento em lote e estratégias de cache, torna-se numa nova questão para as empresas que estão a adotar e a fazer a transição para a IA.

Há alguns dias, a OpenAI também anunciou que o Codex passaria para faturação por Tokens; a GitHub apertou os limites de utilização do Copilot a 10 de abril; e a Windsurf substituiu o modelo de “pontos” por uma quota diária. Toda a indústria de IA está, em paralelo, a anunciar o fim da era das tarifas fixas.

Antes das empresas avaliarem “quantas pessoas ainda poupa a introdução de IA”, talvez ainda seja necessário testar se os utilizadores conseguem produzir obras estáveis e de alta qualidade dentro de um orçamento limitado.

Este artigo, em que a Claude do plano empresarial da Anthropic foi uma das primeiras a avançar para faturação por utilização, será que os “funcionários de IA” realmente ficam mais baratos? apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Anthropic Implementa Salvaguardas Eleitorais para o Claude Antes das Eleições Gerais de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas intercalares dos EUA de 2026 e de outras grandes contendas a nível mundial este ano. A sede da San Francisco-based

CryptoFrontier5h atrás

DeepRoute.ai Sistema avançado de assistência à condução supera o avanço de 300 000 veículos: Objetivo de 2026: uma frota de 1 milhão de veículos NOA da cidade

DeepRoute.ai anuncia que o seu avançado sistema de assistência à condução já foi implantado em mais de 300.000 veículos na China, tendo evitado mais de 180.000 potenciais incidentes ao longo do ano passado. A meta para 2026 é atingir 1 milhão de veículos na frota de NOA urbana, com uma utilização superior a 50%, sendo considerado um fator-chave para a comercialização em larga escala do Robotaxi. Este movimento mostra que a condução autónoma na China entrou numa utilização normalizada, ao mesmo tempo que cria uma distinção em relação ao percurso de integração vertical com os EUA, afetando o calendário da cadeia de abastecimento na Ásia-Pacífico.

ChainNewsAbmedia6h atrás

DeepSeek lança os modelos V4-Pro e V4-Flash a um custo 98% inferior ao do GPT-5.5 Pro da OpenAI

Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts.

GateNews11h atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews14h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews15h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia15h atrás
Comentar
0/400
Nenhum comentário