Una vez más, un avance tecnológico. El primer clúster de entrenamiento de IA de gigavatios a nivel mundial ha sido oficialmente puesto en marcha, y esta vez la escala ha revolucionado completamente la percepción de la industria.
Solo el consumo de electricidad ya es suficiente para ilustrar el problema: el pico de consumo ha superado el máximo histórico de consumo eléctrico de la ciudad de San Francisco. En otras palabras, el consumo eléctrico de este sistema en un día puede poner en tensión la red eléctrica de una ciudad. Lo más sorprendente es que en abril de este año se actualizará a 1.5GW, lo que equivale aproximadamente a la potencia constante de una gran central nuclear.
¿Y qué tamaño tiene exactamente? Un clúster de entrenamiento compuesto por 550,000 chips GPU de primera categoría apilados. Esto no solo es una innovación en ingeniería, sino también un desafío integral para la energía, la disipación de calor y la arquitectura de red. Desde la perspectiva de la infraestructura, esto representa que la carrera por la capacidad de cálculo en la era de la IA ha entrado en una nueva escala.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
4
Republicar
Compartir
Comentar
0/400
RugpullSurvivor
· hace5h
¡Vaya, 550,000 tarjetas GPU? Cuánto dinero se gastará, solo la electricidad podría mantener a un pequeño país.
Ver originalesResponder0
GasFeeGazer
· hace5h
550,000 tarjetas GPU apiladas, esto debe costar una fortuna... un consumo de energía a nivel de una central nuclear, realmente es una locura
Ver originalesResponder0
StablecoinArbitrageur
· hace5h
55万张GPU... en realidad, si calculas los números de OPEX, los puntos básicos importan mucho más que el titular. ¿Cuál es el costo real por flop y cómo afecta eso al ROI del entrenamiento del modelo? movimiento clásico de presumir gigavatios mientras nadie habla de ratios de eficiencia.
Ver originalesResponder0
WenMoon42
· hace5h
¡Qué demonios, 55 millones de GPU? Esto debe consumir una cantidad enorme de electricidad, incluso las centrales nucleares tendrían que hacer horas extras.
---
Este consumo de energía haría que toda San Francisco tenga que ceder el paso, ¿quién se atrevería a competir por la electricidad con esto?
---
Una carrera armamentística, hermano, sin suficiente poder nacional no se puede jugar a este juego.
---
¿Cuántos BTC se podrían comprar con un día de factura de electricidad? La verdad es que no puedo más.
---
El sistema de refrigeración seguramente será una pesadilla, los ingenieros deben estar volviéndose locos.
---
¿Subir a 1.5GW en abril? No, ¿esto todavía va a aumentar? ¡Ya no dejan vivir!
Una vez más, un avance tecnológico. El primer clúster de entrenamiento de IA de gigavatios a nivel mundial ha sido oficialmente puesto en marcha, y esta vez la escala ha revolucionado completamente la percepción de la industria.
Solo el consumo de electricidad ya es suficiente para ilustrar el problema: el pico de consumo ha superado el máximo histórico de consumo eléctrico de la ciudad de San Francisco. En otras palabras, el consumo eléctrico de este sistema en un día puede poner en tensión la red eléctrica de una ciudad. Lo más sorprendente es que en abril de este año se actualizará a 1.5GW, lo que equivale aproximadamente a la potencia constante de una gran central nuclear.
¿Y qué tamaño tiene exactamente? Un clúster de entrenamiento compuesto por 550,000 chips GPU de primera categoría apilados. Esto no solo es una innovación en ingeniería, sino también un desafío integral para la energía, la disipación de calor y la arquitectura de red. Desde la perspectiva de la infraestructura, esto representa que la carrera por la capacidad de cálculo en la era de la IA ha entrado en una nueva escala.