DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash 现在可在 Ollama 的云端使用!托管在美国。使用 Claude Code 试试:ollama launch claude –model deepseek-v4-flash:cloud 使用 OpenClaw 试试:ollama launch openclaw –model deepseek-v4-flash:cloud 使用 Hermes 试试:ollama launch hermes…

— ollama (@ollama) 2026 年 4 月 24 日

DeepSeek V4 预览:两款尺寸、1M 上下文

根据 DeepSeek 官方 API 文档 4/24 发布公告,DeepSeek-V4 Preview 分两款尺寸同步开源发布:

型号 总参数 活跃参数 定位 DeepSeek-V4-Pro 1.6 兆 490 亿 目标对标闭源旗舰 DeepSeek-V4-Flash 2,840 亿 130 亿 快速、高效、低成本

两款均采用 Mixture-of-Experts(MoE)架构,原生支持 100 万 tokens 长上下文。DeepSeek 在公告中宣告:“1M 上下文现在是所有 DeepSeek 官方服务的默认值。”

架构创新:DSA 稀疏注意力+Token-wise 压缩

V4 系列核心的架构改进包含:

Token-wise 压缩搭配 DSA(DeepSeek Sparse Attention)——针对超长上下文下的推理运算与 KV 缓存内存大幅削减成本

相较 V3.2,V4-Pro 在 100 万 tokens 上下文场景下,每个 token 推理仅需 27% 的 FLOPs、KV cache 仅需 10%

支持 Thinking 与 Non-Thinking 双模式切换,对应不同任务的深度推理需求

API 层面同时兼容 OpenAI ChatCompletions 与 Anthropic APIs 规格,降低既有 Claude/GPT 客户端的迁移成本。

Ollama Cloud 的三组一键启动指令

Ollama 官方模型页以模型标识符 deepseek-v4-flash:cloud 提供云端推理服务,开发者可用以下三组指令直接把 V4-Flash 串到既有 AI 程式开发工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是“美国主机”这个信号。对企业与欧美开发者而言,使用中国开源模型时最大疑虑是数据回传中国;Ollama 选择把 V4-Flash 的推理层放在美国,意味着 prompt 与程式码内容不离开美国司法管辖,降低合规与数据主权层面的摩擦。

为什么这件事对 AI 产业重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三个原本各自独立的生态接起来,产生三层意义:

成本路线:V4-Flash 的 130 亿活跃参数远小于 GPT-5.5(输入 5 美元、输出 30 美元/百万 tokens)与 Claude Opus 4.7 等旗舰,对于中小型代理任务、批次摘要、测试自动化等用途,单位成本有望显著下降

地缘风险的中介层:Ollama 作为美国注册的中介推理层,让中国原生模型的企业用户得以绕开“资料直接送 DeepSeek 北京服务器”的疑虑,是开源模型在国际扩散的实务解法

开发者即刻切换:Claude Code 与 OpenClaw 的用户可在命令列一行切模型,不必改 prompt 结构或 IDE 设置,对于“多模型回归测试”“成本敏感的批次任务”使用场景是真正的生产力释放

与先前 DeepSeek 新闻的联动

这次 V4 发布与 Ollama Cloud 快速整合,发生在 DeepSeek 正在洽谈首轮外部融资、估值 200 亿美元的背景下。V4 是 DeepSeek 公司资本化过程中的关键产品证明;以开源策略+国际主机合作伙伴快速扩散,则是其在建立开发者生态垄断前的速度战。对 OpenAI 与 Anthropic 而言,一个可以在 Claude Code 内部一行切换的开源替代模型,是 agent 工作流主导权争夺的新变量。

这篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美国主机:Claude Code、OpenClaw 一键串接 最早出现在 鏈新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

英特尔的利多消息为何带动辉达股票飙涨?

英特尔本季财报EPS0.29美元、营收136亿美元双双超预期,数据中心与运算设备更新动能回升,提振半导体与AI需求信心。此利多带动辉达股价中午上涨约4.9%,市场认为基础算力需求仍旺,降低AI泡沫化担忧,并支持辉达长期增长预期。两者竞争同时出现正向板块联动。

鏈新聞abmedia3小时前

中国与美国就模型蒸馏指控及投资限制展开AI对决

Gate News消息,4月24日——中国已驳斥美国指控,称其科技巨头正通过工业级蒸馏剥削美国AI技术;与此同时,两国正为在AI开发和投资控制方面发生重大冲突而做准备。特朗普政府正在准备

GateNews5小时前

Alphabet拟向Anthropic投资最高$40 十亿美元,推动AI竞争

Gate News消息,4月24日——Alphabet(谷歌的母公司)计划向AI开发商Anthropic投资最高$40 十亿美元,包括$10 十亿美元的预付款以及$30 十亿美元的额外融资,条件是达到特定的绩效里程碑。此次投资是在Alphabet此前持有Anthropic 14%的股份之后进行的。

GateNews7小时前

瑞士监管机构 FINMA 警告:Anthropic 的 Mythos AI 工具存在金融风险

Gate News 消息,4 月 24 日 — 瑞士金融市场监管局 (FINMA) 表示,允许银行快速且方便地采用 Anthropic 的人工智能工具 Mythos 将带来严重风险。该

GateNews8小时前

英伟达重夺$5 万亿美元市值,创下新的历史最高收盘纪录

Gate News 通讯,4月24日——周五,英伟达(Nvidia)上涨4.2%,重新获得市值$5 万亿美元以上,并以$208 美元/股收盘,创下历史最高的收盘记录。单日反弹为这家芯片制造商的市值增加了超过$200 十亿美元,股价盘中一度触及约$5.12万亿美元的高点。 英伟达目前在市值上大约领先Alphabet 万亿美元,进一步巩固其在AI硬件领域的主导地位。该股4月份涨幅达20%,过去52周累计上涨101%,此前第一季度的6.4%跌幅被抹平。同期更广泛的标普500指数上涨32.2%,而科技精选板块SPDR ETF攀升57.4%。 股价走强也受益于半导体板块的强势表现,包括在英特尔(Intel)财报发布后的上涨,以及Oklo为AI基础设施签署核电合作协议后的涨势。英伟达的下一个主要催化剂是其5月20日的财报报告,届时分析师预计稀释后每股收益为1.70美元,同比上涨120.8%。在覆盖该股的49位分析师中,有44位给予“强力买入”(Strong Buy)评级,平均目标价为268.80美元,意味着相较当前水平存在34.6%的上行空间。 上述涨幅也发生在英伟达发布Ising之后。Ising是一套面向量子计算的开源AI模型套件,可将比特(qubit)校准时间从数天缩短至数小时,并相较现有解决方案实现2.5倍更快的实时解码速度。

GateNews8小时前

DeepSeek V4 以 1M 上下文窗口发布;华为 Ascend 与寒武纪芯片实现全面兼容

Gate News 消息,4月24日——DeepSeek V4-Pro 和 DeepSeek V4-Flash 于 4 月 24 日正式发布,并开源发布;上下文处理长度从 128K 大幅扩展至 1M,容量提升接近 10 倍。华为计算宣布其 Ascend 超算节点

GateNews8小时前
评论
0/400
暂无评论