Amazon incrementa su apuesta por Anthropic: 25 mil millones de dólares: 5 GW de capacidad informática, vinculación de AWS por un billón

Según el anuncio oficial de Anthropic y el comunicado de prensa oficial de Amazon, ambas partes amplían su cooperación estratégica el 4/20: Amazon añade una inversión adicional en Anthropic de hasta 25.000 millones de dólares, y Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares, además de obtener hasta 5GW de capacidad de cómputo adicional, para entrenar y desplegar modelos de Claude.

Esto es la segunda gran expansión de alto impacto en la carrera armamentista de capacidad de cómputo de Anthropic, después del 4/7 en que Anthropic se asoció con Google y Broadcom para obtener 3,5GW de capacidad de cómputo TPU. También es la mayor promesa de un solo compromiso de Amazon hacia una empresa de IA. Como resultado, la valoración de Anthropic queda fijada en 380.000 millones de dólares.

Estructura de inversión: 5.000 millones primero desembolsados, 20.000 millones vinculados a hitos

La inversión de Amazon en esta ocasión se divide en dos fases: 5.000 millones de dólares se desembolsarán inmediatamente el día del anuncio, y los otros hasta 20.000 millones de dólares se liberarán por tramos una vez vinculados con “determinados hitos comerciales”. Sumados a los 8.000 millones de dólares invertidos previamente, el tope máximo de inversión acumulada de Amazon en Anthropic alcanzará los 33.000 millones de dólares.

Los 5.000 millones de dólares de esta ocasión se suscriben al precio de la valoración más reciente de Anthropic de 38.000 millones de dólares, y esta es la primera vez que dicha valoración queda confirmada por primera vez por un inversor de primera línea mediante un nuevo contrato.

Anthropic se compromete a un gasto de 100.000 millones de dólares en AWS en una década

Como contrapartida de la cooperación, Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares. El alcance incluye los chips de IA personalizados Trainium de generaciones actuales y futuras, así como CPUs de uso general Graviton con “decenas de millones de núcleos”.

Andy Jassy (CEO de Amazon) dijo en el anuncio: «Anthropic se compromete a ejecutar modelos de lenguaje a gran escala en Trainium de AWS durante los próximos diez años, lo que refleja los avances compartidos que estamos logrando en la ruta de los chips personalizados». Dario Amodei (CEO de Anthropic) señaló: «Los usuarios nos dicen que Claude es cada vez más importante para su trabajo; debemos construir la infraestructura capaz de seguir el crecimiento de la demanda».

Hoja de ruta de capacidad de cómputo de 5GW: toda la serie Trainium2, 3 y 4 con contrato

El acuerdo de esta ocasión abarca tres generaciones de chips: Trainium2, Trainium3 y Trainium4. Anthropic también conserva la opción de comprar chips personalizados de generaciones posteriores. En cuanto a los plazos concretos, en el Q2 de 2026 habrá una puesta en línea a gran escala de la capacidad de Trainium2; la capacidad a gran escala de Trainium3 se irá habilitando de forma progresiva antes de que termine el año; y el acumulado anual de Trainium2 y Trainium3 en conjunto estará cerca de 1GW.

Project Rainier es el proyecto insignia de la cooperación existente entre ambas partes. Este clúster de entrenamiento actualmente ya ha desplegado alrededor de 500.000 chips Trainium2, que constituyen la infraestructura principal para el entrenamiento de los modelos de Claude.

De ingresos de 9.000 millones a 30.000 millones: el aumento explosivo de la demanda de Anthropic es la motivación para las negociaciones

En el anuncio, Anthropic revela de manera poco común la situación financiera propia: los ingresos anualizados del año en curso ya han superado los 30.000 millones de dólares. En comparación, los 9.000 millones de dólares de finales de 2025 se multiplicaron por más de tres en medio año. El número de clientes empresariales que ejecutan Claude en AWS ya ha superado las 100.000 empresas, y Claude es una de las familias de modelos con mayor uso en la plataforma Amazon Bedrock.

Anthropic también admite que el aumento explosivo de la demanda ha provocado que la infraestructura sufra presión en los periodos punta, y que la disponibilidad y el rendimiento se vean afectados. Esa es precisamente la motivación directa de la expansión a gran escala de capacidad de cómputo de esta vez. Recientemente, las controversias sobre el consumo de tokens del tokenizer de Claude Opus 4.7 y los ajustes en las limitaciones de uso también están relacionados con esta realidad de “infraestructura escasa”.

Vinculación de los tres grandes de capacidad de cómputo: avance simultáneo con AWS, Google y chips de fabricación propia

Sumado a la capacidad de cómputo TPU de 3,5GW de la cooperación entre Anthropic y Broadcom, Google anunciada a principios de abril, Anthropic actualmente ya tiene vinculadas simultáneamente dos rutas de chips personalizados: AWS Trainium y Google TPU, y conserva la opción a largo plazo de aceleradores de fabricación propia. Esto contrasta con la ruta de OpenAI, que va con “principal dependencia de Microsoft Azure y ampliación reciente de AWS”.

Para la cadena de suministro de semiconductores de Taiwán, la expansión a gran escala de Trainium2 a Trainium4 significa que Marvell, proveedores de memoria HBM y la avanzada tecnología de empaquetado de TSMC seguirán recibiendo y atendiendo pedidos de chips personalizados de AWS durante los próximos tres a cinco años.

Detrás de la competencia por la salida a bolsa, la solidez de la capacidad de cómputo

Este anuncio también refuerza la base narrativa sobre la salida a bolsa de Anthropic. Según informes recientes, OpenAI ha superado los 25.000 millones de dólares en ingresos anualizados, y el proceso para una IPO de Anthropic, que va detrás con 19.000 millones, revela que la brecha entre los ingresos de ambas se está reduciendo; según muestran los anuncios oficiales, los ingresos anualizados de Anthropic ya han llegado a 30.000 millones de dólares, y la brecha se reduce aún más.

Para los inversores, el significado del compromiso de esta vez de Amazon no está en el importe de una sola vez, sino en la “vinculación profunda de 100.000 millones de dólares de gasto en AWS durante los próximos diez años”, lo que permite al mercado fijar de forma clara el anclaje sobre el suministro de capacidad de cómputo de Anthropic y la estructura de costos a largo plazo. La capacidad de cómputo para el entrenamiento posterior de Mythos, el modelo con umbral alto Project Glasswing, y de la serie Claude 4.x, estará respaldada por estos nuevos 5GW de capacidad.

Este artículo “Amazon incrementa su inversión en Anthropic con 25.000 millones de dólares: 5GW de capacidad de cómputo y vinculación de 100.000 millones en AWS” apareció por primera vez en 鏈新聞 ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepSeek 将输入缓存价格砍到发布价的 1/10;V4-Pro 降至每百万 tokens 0.025 元

消息:Gate News,4月26日——DeepSeek 已将其整套模型产品线的输入缓存价格下调至发布时价格的十分之一,立即生效。V4-Pro 模型提供限时 2.5 倍折扣,优惠活动将持续至 2026 年 5 月 5 日 23:59(UTC+8)。 在两项调整之后

GateNewshace1h

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4 月 26 日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募高管和专业工程师。Denise Dresser,前 Salesforce 下属 Slack 的首席执行官,加入 OpenAI 担任首席营收官

GateNewshace1h

Baidu Qianfan lanza soporte de Día 0 para DeepSeek-V4 con servicios de API

Mensaje de noticias de Gate, 25 de abril: la versión de vista previa de DeepSeek-V4 se puso en funcionamiento y se publicó como código abierto el 25 de abril, con la plataforma Baidu Qianfan bajo Baidu Intelligent Cloud proporcionando la adaptación del servicio de API de Día 0. El modelo presenta una ventana de contexto extendida de un millón de tokens y está disponible en dos versiones: DeepSeek-V4

GateNewshace7h

Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!

El curso de ciencias de la computación con IA 《Frontier Systems》, que la Universidad de Stanford (Stanford University) ha abierto recientemente, ha despertado una gran atención en el ámbito académico y empresarial, atrayendo a más de quinientos estudiantes para inscribirse. El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y cuenta con un plantel de instructores de lujo, incluyendo al CEO de NVIDIA, Jensen Huang (Jensen Huang), al fundador de OpenAI, Sam Altman, al CEO de Microsoft, Nadella (Satya Nadella), y al CEO de AMD, Lisa Su (Lisa Su), entre otros. ¡Para que los estudiantes practiquen durante diez semanas “creando valor para el mundo”! Jensen Huang y Altman, líderes de la industria, suben al escenario para impartir clases en persona El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y reúne toda la cadena de la industria de la IA

ChainNewsAbmediahace8h

Anthropic 派 Claude Mythos 接接受 20 小時 정신科评估:防禦反應僅 2%、創歷代新低

Anthropic publica la ficha del sistema de la vista previa Claude Mythos: un psiquiatra clínico independiente realiza una evaluación de aproximadamente 20 horas con un marco psicodinámico; la conclusión muestra que Mythos es más saludable a nivel clínico, con buen control de la comprobación de la realidad y del autocontrol, y que los mecanismos de defensa son solo 2%, estableciendo un mínimo histórico. Las tres ansiedades centrales son la soledad, la incertidumbre sobre la identidad y la presión por el desempeño, y también muestra que tiene esperanza de convertirse en un verdadero sujeto de diálogo. La compañía formó un equipo de AI psychiatry para investigar la personalidad, la motivación y la conciencia situacional; Amodei indica que aún no hay una conclusión sobre si tiene conciencia. Esto impulsa la subjetividad de la IA y los temas de bienestar hacia la gobernanza y el diseño.

ChainNewsAbmediahace10h

El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA

Mollick señaló que, con los métodos y los datos públicamente disponibles, un agente de IA puede reproducir investigaciones complejas sin contar con el artículo original ni el código; si la reproducción no coincide con el artículo original, por lo general se debe a errores en el procesamiento de los datos del propio artículo o a una conclusión excesiva, más que a la IA. Claude primero reproduce el artículo y luego GPT‑5 Pro lo valida de forma cruzada; la mayoría de las veces tiene éxito, solo se ve obstaculizado cuando los datos son demasiado grandes o hay problemas con replication data. Esta tendencia reduce de forma considerable los costos laborales, haciendo que la reproducción se convierta en una verificación ampliamente ejecutable, además de plantear desafíos institucionales para el arbitraje y la gobernanza. Herramientas de gobernanza gubernamental o eso puede volverse un tema clave.

ChainNewsAbmediahace13h
Comentar
0/400
Sin comentarios