Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Huang Ren Xun nêu tên? SN3 tăng 5 lần trong tháng, cuối cùng đã làm gì?
2026 年 3 月 20 日,All-In 创投播客中出现了一段不同寻常的对话。
风险投资大佬 Chamath Palihapitiya 将话题交给英伟达 CEO 黄仁勋,提到 Bittensor 上有个项目“完成了一项相当疯狂的技术成就”,用分布式算力在互联网上训练了一个大型语言模型,整个过程完全去中心化,没有任何中心化数据中心参与。
黄仁勋没有回避。他将此比作“现代版的 Folding@home”,那个在 2000 年代让普通用户贡献闲置算力、共同对抗蛋白质折叠难题的分布式项目。
在此之前的 4 天前,也就是 3 月 16 日,Anthropic 联合创始人 Jack Clark 在发布一份 AI 研究进展报告时,也用大量篇幅介绍并引用了这项突破:Bittensor 生态子网 Templar(SN3)完成了 720 亿参数大模型(Covenant 72B)的分布式训练,模型性能与 Meta 在 2023 年发布的 LLaMA-2 相当。
Jack Clark 将这一章节命名为“通过分布式训练挑战 AI 政治经济学”,并强调这是一项值得持续关注的技术——他能想象未来:设备端 AI 大量采用去中心化训练产出的模型,而云端 AI 继续运行专有大模型。
市场反应略显滞后但极为剧烈:SN3 在过去一个月涨幅超过 440%,过去两周涨幅超过 340%,市值达到 1.3 亿美元。子网的爆发式叙事,直接带动 TAO 的购买压力。因此,TAO 迅速上涨,一度达到 377 美元,过去一个月翻倍,市值(FDV)约为 75 亿美元。
问题来了:SN3 到底做了什么?为何会成为焦点?分布式训练和去中心化 AI 的价值叙事又将如何演变?
那个 72B 的模型
要回答这个问题,首先要看清楚 SN3 的成绩单。
2026 年 3 月 10 日,Covenant AI 团队在 arXiv 上发布技术报告,正式宣布 Covenant-72B 完成训练。这是一个拥有 720 亿参数的大型语言模型,超过 70 个独立节点(每轮约 20 个节点同步,每个节点配备 8 张 B200 GPU),在约 1.1 万亿 tokens 的语料上完成预训练。
Templar 提供了在基准测试中的一些数据,当然,比较对象是 Meta 在 2023 年发布的 LLaMA-2-70B。正如 Anthropic 联合创始人 Jack Clark 所说,Covenant-72B 在 2026 年可能已显过时。其在 MMLU 上得分 67.1,大致对应 Meta 2023 年的 LLaMA-2-70B(65.6 分)。
而 2026 年的前沿模型——无论是 GPT 系列、Claude 还是 Gemini——早已在数十万块 GPU 上完成了参数量远超 1000 亿的训练,推理、代码、数学能力的差距已非百分比,而是数量级。这一现实差距不应被市场情绪所淹没。
但换算到“用开放互联网上的分布式算力训练出来”这个前提,意义就完全不同。
做个比较:同样是去中心化训练的 INTELLECT-1(Prime Intellect 团队出品,100 亿参数)在 MMLU 上得分 32.7;另一个在白名单参与者中进行的分布式训练项目 Psyche Consilience(400 亿参数)得分 24.2。Covenant-72B 以 72B 规模、67.1 分的 MMLU,在去中心化训练赛道中是个显眼的数字。
更关键的是,这次训练是“无需许可”的。任何人都可以接入成为节点,无需事先审核,无需白名单。超过 70 个独立节点参与模型更新,来自全球各地贡献算力。
黄仁勋说了什么,没说什么
还原那场播客的细节,有助于校正外界对这次“背书”的解读。
Chamath Palihapitiya 在对话中展示了 Bittensor 的技术成就,描述为用分布式算力训练了一个 Llama 模型,过程“完全分布式,同时保持状态”。黄仁勋回应将其比作“现代版的 Folding@home”,并讨论了开源与专有模型共存的必要性。
值得注意的是,黄仁勋没有直接提及 Bittensor 的代币或任何投资意涵,也未进一步讨论去中心化 AI 训练。
理解 Bittensor 子网和 SN3
要理解 SN3 的突破,首先要明确 Bittensor 及其子网的运作逻辑。简单来说,Bittensor 类似一条 AI 公链和平台,而每个子网则是一个“AI 生产流水线”,各自明确核心任务、激励机制,协同构建去中心化 AI 生态。
其运作流程清晰且去中心化:子网所有者定义目标并设计激励模型;矿工提供算力,完成推理、训练、存储等任务;验证者对矿工贡献进行评分,并上传至 Bittensor 共识层;最终,Yuma 共识算法根据奖励分配收益。
目前,Bittensor 上有 128 个子网,涵盖推理、无服务器 AI 云、图像、数据标注、强化学习、存储、计算等多类任务。
SN3 就是其中之一。它不做应用层封装,也不租用现成大模型 API,而是直指 AI 产业链中最昂贵、最封闭的环节之一:大模型预训练。
SN3 希望利用 Bittensor 网络协调异构计算资源,通过激励式分布式训练,证明无需昂贵的中心化超级计算机集群,也能训练出强大基础模型。核心在于“平权”——打破中心化训练的资源垄断,让普通个人或中小机构也能参与,同时借助分布式算力降低成本。
推动 SN3 的核心力量是 Templar,背后团队为 Covenant Labs。该团队还运营着两个子网:Basilica(SN39,计算服务)和 Grail(SN81,RL 后训练与模型评估)。三者形成垂直整合,覆盖从预训练到对齐优化的完整流程,构建去中心化大模型训练生态。
具体而言,矿工贡献算力,将梯度(模型参数的调整方向和幅度)上传;验证者评估贡献质量,按误差改善程度打分,奖励自动分配,无需信任第三方。
激励机制的关键在于:奖励直接挂钩“你的贡献让模型变好了多少”,而非单纯算力出勤。这从根本上解决了去中心化场景中最难的问题:如何防止矿工“摸鱼”。
那么 Covenant-72B 如何解决通信效率和激励相容问题?
让几十个不信任、硬件不同、网络参差节点协同训练,面临两个挑战:一是通信效率——标准分布式训练要求高带宽低延迟;二是激励相容——如何防止恶意节点提交错误梯度,确保每个参与者都在老实训练,而非抄袭他人。
SN3 用两个核心组件解决:SparseLoCo 和 Gauntlet。
SparseLoCo 解决通信问题。传统分布式训练每步同步完整梯度,数据量巨大。SparseLoCo 采用:每个节点在本地运行 30 步优化(AdamW),再将“伪梯度”压缩上传。压缩方式包括 Top-k 稀疏(只保留关键梯度)、误差反馈(累积丢失部分)、2 位量化。最终压缩比超过 146 倍。
换句话说,原本需传输 100MB 的数据,现在不到 1MB。
这使得在普通互联网带宽(上行 110Mbps,下行 500Mbps)下,计算利用率保持在约 94.5%,20 个节点、每节点 8 张 GPU、每轮通信仅 70 秒。
Gauntlet 解决激励相容。它运行在 Bittensor 区块链(SN3)上,验证每个节点提交的“伪梯度”质量。具体做法:用少量数据测试“用该节点梯度后,模型损失降低了多少”,得到 LossScore。同时,检查节点是否用自己分配的数据训练——如果某节点在随机数据上的损失改善比在自己数据上还好,会被扣分。
最终,每轮只采纳评分最高的节点梯度,其他节点被淘汰,超出部分随时补位,保持系统稳健。整个训练中,平均每轮有 16.9 个节点参与,累计超过 70 个节点。
去中心化 AI 价值叙事的根本转变
从技术和行业角度看,Covenant-72B 代表的方向具有几个重要意义。
第一,打破“分布式训练只适合小模型”的预设。虽与最前沿模型仍有差距,但证明了可扩展性。
第二,无许可参与是真实可行的。此前多依赖白名单,SN3 这次任何有算力的人都能加入,验证机制过滤恶意贡献。这是向“真正去中心化”迈出的实质性一步。
第三,Bittensor 的 dTAO 机制让子网价值的市场发现成为可能。dTAO 允许子网发行自己的代币,通过 AMM 机制由市场决定 TAO 排放份额。这为产出具体成果的子网提供了价值捕获机制。当然,这也容易受叙事和情绪影响,模型训练成果的质量难以由普通市场参与者独立评估。
第四,去中心化 AI 训练的政治经济意义。Jack Clark 在《Import AI》中将此提升到“谁拥有 AI 未来”的层面。目前,最先进模型由少数大规模数据中心垄断,这不仅是商业问题,也是权力结构问题。若分布式训练持续突破,有望在某些模型(如特定领域的小型前沿模型)上形成真正的去中心化开发生态,但这一前景尚远。
总结:一个真正的里程碑,以及一系列真实的问题
黄仁勋表示,这像“现代版的 Folding@home”。Folding@home 在分子模拟领域做出贡献,但未威胁到大型制药公司的核心研发。这一比喻非常贴切。
SN3 证明了协议的可行性,验证了分布式训练的潜力。但从技术和行业角度看,这份成绩单背后,仍有许多少有人愿意深入讨论的问题:
MMLU 本身在学界存在争议,题目和答案可能泄露训练集信息。更重要的是,基准的选择:论文对标的 LLaMA-2-70B 和 LLM360 K2,都是 2023-2024 年的老模型,而在问及 Grok、豆包时,得分中下,Claude 视为严重落后。若用更动态或抗污染的新基准,结论或许更真实。
决定模型能力上限的高质量数据——对话、代码、数学推导、科学文献——仍由少数大公司、出版机构和学术数据库掌控。算力民主化了,数据端仍是寡头结构,这个矛盾未被充分讨论。
安全性方面,无许可参与意味着你不知道那 70 多个节点的身份,也不清楚他们用什么数据训练。Gauntlet 能过滤明显异常梯度,但无法防范微妙的数据投毒——如果某节点系统性在有害内容上多训练几轮,可能引起模型偏移,但难以被检测。高合规场景(金融、医疗、法律)使用由匿名节点训练、数据来源不透明的模型,潜在风险巨大。
Covenant-72B 以 Apache 2.0 许可证开源,不使用 SN3 代币。持有代币的价值在于未来模型产出带来的排放收益,而非模型使用的直接收益。这个价值链依赖持续训练和网络机制的健康运转。若训练停滞或成果不达预期,代币估值可能动摇。
列出这些问题,不是否定 Covenant-72B 的意义。它证明了曾被认为不可能的事可以实现,这一事实不会消失。但“做到了”与“意味着什么”是两回事。
过去一个月,SN3 代币涨了 440%。这中间的差距,可能不仅是炒作,而是叙事速度快于现实。未来,这段差距会被市场修正,还是被现实拉平,取决于 Covenant AI 团队接下来交出的成果。
值得关注的是,Grayscale 已在 2026 年 1 月提交 TAO ETF 申请,显示机构资本对这条赛道的兴趣。此外,2025 年 12 月,Bittensor 将每日 TAO 排放减半,供给端的结构性收紧也在酝酿中。
参考链接: