0G Labs Báo Cáo Bước Đột Phá AI Phi Tập Trung 107B, Nêu Bật Đào Tạo Hiệu Quả Chi Phí Và Kế Hoạch Mã Nguồn Mở

Tóm tắt

0G Labs đã báo cáo việc huấn luyện mô hình DiLoCoX 107B tham số — lớn hơn hệ thống của Bittensor — bằng phương pháp phi tập trung tiết kiệm chi phí, và đã bắt đầu huấn luyện lại công khai với sự minh bạch đầy đủ và kế hoạch phát hành mã nguồn mở.

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs, nhà phát triển hạ tầng blockchain cho các tác nhân trí tuệ nhân tạo, cho biết đã huấn luyện một mô hình với 107 tỷ tham số khoảng tám tháng trước, đánh dấu quy mô lớn hơn khoảng 48% so với mô hình do Bittensor phát triển và là hệ thống AI phi tập trung lớn nhất được ghi nhận đến nay.

Mô hình này, gọi là DiLoCoX-107B, được huấn luyện vào tháng 7 năm 2025 bằng công nghệ phát triển cùng với China Mobile, nhà mạng di động lớn nhất thế giới. Theo nghiên cứu đã được bình duyệt đăng trên arXiv, hệ thống đạt mức hiệu quả truyền thông cao gấp 357 lần so với các phương pháp AllReduce truyền thống khi hoạt động qua kết nối internet tiêu chuẩn 1 Gbps, cho thấy rằng việc huấn luyện AI tiên tiến có thể khả thi mà không cần dựa vào hạ tầng trung tâm dữ liệu đắt đỏ.

Kết quả ban đầu cho thấy kiến trúc tính toán phân tán có thể cạnh tranh với các phương pháp tập trung ở cấp độ phát triển mô hình cao nhất. Trong khi các công ty như OpenAI, Google và Meta đầu tư lớn vào các cụm GPU quy mô lớn, 0G Labs cho biết hệ thống phân tán của họ có thể giảm chi phí khoảng 95%, dựa trên số liệu do Forbes trích dẫn. Hệ thống hoạt động trên các nút phi tập trung kết nối qua hạ tầng internet phổ biến.

So với đó, mô hình Covenant-72B của Bittensor, được phát triển trên mạng lưới Subnet 3 bởi một nhóm cộng tác viên, đã được mô tả là bước tiến đáng chú ý trong lĩnh vực AI phi tập trung. Tuy nhiên, 0G Labs cho biết công trình trước đó của họ đã chứng minh khả năng huấn luyện các mô hình quy mô lớn hơn, được xác thực qua các nghiên cứu bình duyệt.

Công ty cũng thông báo rằng họ đã bắt đầu giai đoạn mới liên quan đến việc huấn luyện lại DiLoCoX-107B công khai, nhấn mạnh tính minh bạch và chiến lược phát hành mã nguồn mở. Nỗ lực này nhằm thiết lập các tiêu chuẩn rõ ràng hơn cho các thực hành phát triển AI có thể xác minh.

Sau khi hoàn thành, mô hình cập nhật dự kiến sẽ được phát hành với quyền truy cập công khai đầy đủ vào trọng số, điểm kiểm tra và các tiêu chuẩn hiệu suất. Quá trình huấn luyện lại cũng dự kiến sẽ đi kèm tài liệu toàn diện, bao gồm nguồn dữ liệu, các chỉ số huấn luyện và các cơ chế xác minh, trong đó có xác thực dựa trên môi trường thực thi đáng tin cậy.

Hạ tầng toàn diện cho AI có thể xác minh

Khác với các hệ thống chủ yếu phát triển cho mục đích thử nghiệm, DiLoCoX-107B được tích hợp vào hạ tầng dựa trên blockchain rộng hơn, thiết kế dành cho các tác nhân AI. Điều này bao gồm một hệ thống sẵn sàng sản xuất với lớp blockchain phù hợp EVM, tài nguyên tính toán phi tập trung, khả năng lưu trữ phân tán và lớp sẵn sàng dữ liệu hiệu suất cao, được định vị là nhanh hơn và tiết kiệm chi phí hơn so với các giải pháp tương tự như Ethereum.

Công ty cho biết hạ tầng này nhằm hỗ trợ không chỉ huấn luyện mô hình mà còn cả suy luận có thể xác minh, lưu trữ an toàn và các quy trình thanh toán trên chuỗi, phản ánh các yêu cầu vận hành rộng hơn cho hệ sinh thái tác nhân AI.

Hệ thống tích hợp nhiều phương pháp kỹ thuật, bao gồm song song pipeline, phối hợp tối ưu kép giữa cập nhật cục bộ và toàn cục, đồng bộ trễ để cho phép huấn luyện liên tục, và nén gradient thích ứng để giảm thiểu overhead truyền thông trong khi duy trì độ chính xác của hiệu suất.

0G Labs cho biết quá trình huấn luyện lại hiện đang diễn ra và tất cả dữ liệu, phương pháp và kết quả liên quan sẽ được công bố trong suốt quá trình. Mô hình cuối cùng dự kiến sẽ được phát hành theo giấy phép mã nguồn mở, với quyền truy cập đầy đủ vào các tài liệu huấn luyện.

0G-0,78%
TAO14,8%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim