Lại một bước đột phá về công nghệ. Cụm đào tạo AI quy mô gigawatt đầu tiên trên thế giới chính thức đi vào hoạt động, quy mô lần này đã hoàn toàn làm mới nhận thức của ngành.
Chỉ riêng lượng điện tiêu thụ đã đủ để minh chứng vấn đề—— công suất đỉnh đã vượt quá đỉnh tiêu thụ điện của toàn thành phố San Francisco. Nói cách khác, lượng điện tiêu thụ trong một ngày của hệ thống này có thể làm căng thẳng lưới điện của một thành phố. Thậm chí còn gây sốc hơn là, vào tháng 4 năm nay, hệ thống này sẽ nâng cấp lên 1.5GW, gần như tương đương với công suất liên tục của một nhà máy điện hạt nhân lớn.
Quy mô cụ thể là gì? Một cụm đào tạo gồm 55 vạn chip GPU hàng đầu xếp chồng lên nhau. Đây không chỉ là một đổi mới kỹ thuật, mà còn là thách thức toàn diện về năng lượng, tản nhiệt và kiến trúc mạng. Từ góc độ hạ tầng, điều này đại diện cho cuộc chạy đua về năng lực tính toán trong kỷ nguyên AI đã bước vào một cấp độ mới.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
4
Đăng lại
Retweed
Bình luận
0/400
RugpullSurvivor
· 5giờ trước
Chết rồi, 550.000 GPU? Phải tiêu bao nhiêu tiền mới đủ, chỉ tiền điện thôi đã đủ nuôi một quốc gia nhỏ rồi
Xem bản gốcTrả lời0
GasFeeGazer
· 5giờ trước
550,000 GPU được xếp chồng lên nhau, tiêu tốn bao nhiêu tiền đây... mức tiêu thụ điện năng như nhà máy điện hạt nhân, thật là điên rồ
Xem bản gốcTrả lời0
StablecoinArbitrageur
· 5giờ trước
550,000 GPU... thực ra nếu bạn tính toán các số liệu về chi phí vận hành, điểm cơ sở mới là điều quan trọng hơn nhiều so với tiêu đề. Chi phí thực tế cho mỗi flop là bao nhiêu và điều đó ảnh hưởng như thế nào đến ROI của đào tạo mô hình? Đây là chiến lược cổ điển để khoe khoang về gigawatt trong khi không ai nói về tỷ lệ hiệu quả.
Lại một bước đột phá về công nghệ. Cụm đào tạo AI quy mô gigawatt đầu tiên trên thế giới chính thức đi vào hoạt động, quy mô lần này đã hoàn toàn làm mới nhận thức của ngành.
Chỉ riêng lượng điện tiêu thụ đã đủ để minh chứng vấn đề—— công suất đỉnh đã vượt quá đỉnh tiêu thụ điện của toàn thành phố San Francisco. Nói cách khác, lượng điện tiêu thụ trong một ngày của hệ thống này có thể làm căng thẳng lưới điện của một thành phố. Thậm chí còn gây sốc hơn là, vào tháng 4 năm nay, hệ thống này sẽ nâng cấp lên 1.5GW, gần như tương đương với công suất liên tục của một nhà máy điện hạt nhân lớn.
Quy mô cụ thể là gì? Một cụm đào tạo gồm 55 vạn chip GPU hàng đầu xếp chồng lên nhau. Đây không chỉ là một đổi mới kỹ thuật, mà còn là thách thức toàn diện về năng lượng, tản nhiệt và kiến trúc mạng. Từ góc độ hạ tầng, điều này đại diện cho cuộc chạy đua về năng lực tính toán trong kỷ nguyên AI đã bước vào một cấp độ mới.