¿La versión empresarial de Anthropic Claude se está pasando primero a un modelo de pago por uso; de verdad un “empleado” de IA cuesta menos?

Cuando los empresarios basan su cálculo en “usar la IA para reemplazar la mano de obra y reducir costos”, Anthropic cambia las reglas del juego. Este gigante de la IA actualizó recientemente la estructura de facturación de la versión empresarial de Claude: separó el uso de Claude, Claude Code y Cowork de la suscripción mensual de 40 dólares, y lo convirtió en un cobro adicional según la cantidad real de Tokens consumidos. Así, el costo de los “empleados” de IA, parece que no es tan barato como dicen.

(¿Se pueden ahorrar Tokens con un estilo de chino clásico y conversaciones de IA? Una captura de pantalla desata el debate; un ingeniero: en realidad, el inglés es lo más importante)

Se acabó la era de las tarifas fijas; la facturación de la versión empresarial de Claude cambia: paga por lo que uses

El informe de The Information indica que los documentos empresariales actualizados de Anthropic dicen: «El cargo mensual por asiento (seats) solo cubre el acceso a la plataforma e incluye ningún uso; todo el uso se cobrará por separado según las tarifas estándar de la API». Antes, las empresas compraban “ilimitado”; ahora es “pago por consumo”.

Bajo el esquema anterior, el costo de suscripción mensual por cada cuenta empresarial era de aproximadamente 40 a 200 dólares, con un descuento de API del 10% al 15%. Aunque el nuevo esquema baja la suscripción mensual a 20 dólares, también elimina todos los descuentos de API y exige que las empresas se comprometan y paguen por adelantado el volumen estimado de Tokens mensuales. No importa si se usa más o menos de lo prometido, el monto comprometido se paga igual, y cuanto mayor sea la cantidad comprometida, no se traduce en un precio unitario más bajo.

Esta estructura, para Anthropic, genera ingresos recurrentes anuales previsibles; para las empresas, implica una traslación del costo por uso y del riesgo.

La “escasez de recursos de cómputo” es la verdadera chispa detrás del ajuste de precios

Anthropic llama a este cambio “optimización del producto”, pero el motor real es el costo de cómputo, que no deja de aumentar. Incluso si los ingresos anualizados de Anthropic pasaron de 9 mil millones de dólares a 30 mil millones de dólares en apenas cuatro meses, lo que reciben los usuarios no son descuentos, sino una reconfiguración de su estructura de ingresos.

El núcleo del problema está en la forma en que los agentes de IA (AI Agent) consumen recursos: la mensajería tradicional usa “sorbos pequeños”, pero los flujos de trabajo de agentes que incluyen tareas de varios pasos encadenadas, ejecuciones repetidas e incluso cooperación entre múltiples agentes, es “beber con ganas”.

Del lado de la oferta, la situación también está ajustada. El precio del alquiler de GPU Blackwell subió 48% en dos meses; CoreWeave aumentó precios más de 20% desde finales del año pasado; y un banco de Estados Unidos pronostica que la demanda de cómputo se mantendrá contraída hasta 2029. Los ingresos derivados de tarifas fijas, para Anthropic, ya no eran sostenibles.

La inestabilidad del servicio es la luz de advertencia más real para los clientes empresariales

Además, la estabilidad del servicio también es un gran problema. David Hsu, fundador de Retool, dijo a través del Wall Street Journal que, aunque Claude Opus 4.6 rinde mejor que OpenAI, al final trasladó su flujo de trabajo a este último. La razón es que el servicio de Claude se interrumpe con frecuencia, lo que le impide entregar el código a tiempo con regularidad.

En los 90 días hasta el 8 de abril de este año, el tiempo de funcionamiento normal de la API de Anthropic apenas alcanzó 98.95%, muy por debajo del estándar del sector de 99.99%. La decisión de Hsu demuestra una cosa: cuando se trata de elegir entre la confiabilidad del servicio y las capacidades del modelo, lo que necesitan las empresas es una IA con un servicio estable.

El costo real de los empleados de IA es mucho más complejo que el número del estado de cuenta

Hoy, el modelo de precios tradicional de “suscripción mensual” para la IA ya quedó atrás; ahora el costo total se recalcula según el consumo real de Tokens. Negociar descuentos por uso o cláusulas de ajustes de flexibilidad en el contrato, o controlar proactivamente el gasto mediante la optimización de Prompts, el procesamiento por lotes y estrategias de caché, se han convertido en los nuevos desafíos para las empresas que adoptan e inician una transformación con IA.

Hace unos días, OpenAI también anunció que Codex pasará a cobrarse por Tokens; GitHub ajustó en 4 de abril el límite de uso de Copilot; y Windsurf reemplazó el sistema de puntos por una cuota diaria. Toda la industria de la IA está anunciando simultáneamente el fin de la era de las tarifas fijas.

Antes de que las empresas evalúen “cuánta mano de obra se puede ahorrar al implementar IA”, quizá aún deban poner a prueba si los usuarios pueden producir resultados estables y de alta calidad dentro de un presupuesto limitado.

Este artículo sobre que la versión empresarial de Anthropic Claude cambió primero hacia el cobro por cantidad: ¿los “empleados” de IA realmente ahorran dinero? Apareció por primera vez en Cadena de noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La API DeepSeek V4-Pro obtiene un 75% de descuento hasta el 5 de mayo; el precio de salida baja a $0.87 por cada millón de tokens

Mensaje de Gate News, 26 de abril — DeepSeek anunció un descuento del 75% por tiempo limitado en los precios de la API V4-Pro, válido hasta el 5 de mayo a las 15:59 UTC. Después del descuento, los precios por cada millón de tokens son: caché de entrada con aciertos $0.03625

GateNewsHace30m

Anthropic implementa salvaguardas electorales para Claude antes de las elecciones legislativas de mitad de mandato de 2026

Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñadas para evitar que su chatbot de IA Claude sea utilizado como arma para difundir desinformación o manipular a los votantes antes de las elecciones legislativas de mitad de período de EE. UU. de 2026 y otros grandes comicios en todo el mundo este año. Con sede en San Francisco,

CryptoFrontierhace5h

DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA

DeepRoute.ai anuncia que su avanzado sistema de asistencia para conducción ha acumulado más de 300.000 vehículos desplegados en China, y que durante el último año ha ayudado a evitar más de 180.000 incidentes potenciales. El objetivo para 2026 es alcanzar un parque de NOA para ciudades de 1 millón de vehículos, con una utilización superior al 50%, lo que se considera clave para la comercialización a gran escala de Robotaxi. Esta medida muestra que la conducción autónoma en China ya ha entrado en un uso normalizado, al tiempo que crea una división con la ruta de integración vertical que sigue Estados Unidos, lo que afecta la cronología de la cadena de suministro en Asia-Pacífico.

ChainNewsAbmediahace7h

DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts.

GateNewshace12h

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace15h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace16h
Comentar
0/400
Sin comentarios