DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

DeepSeek V4 Preview:兩款尺寸、1M 脈絡

根據 DeepSeek 官方 API 文件 4/24 發布公告,DeepSeek-V4 Preview 分兩款尺寸同步開源釋出:

型號 總參數 活躍參數 定位 DeepSeek-V4-Pro 1.6 兆 490 億 目標對標閉源旗艦 DeepSeek-V4-Flash 2,840 億 130 億 快速、高效、低成本

兩款均採 Mixture-of-Experts(MoE)架構,原生支援 100 萬 tokens 長脈絡。DeepSeek 在公告中宣告:「1M 脈絡現在是所有 DeepSeek 官方服務的預設值。」

架構創新:DSA 稀疏注意力+Token-wise 壓縮

V4 系列核心的架構改進包含:

Token-wise 壓縮搭配 DSA(DeepSeek Sparse Attention)——針對超長脈絡下的推論運算與 KV 快取記憶體大幅削減成本

相較 V3.2,V4-Pro 在 100 萬 tokens 脈絡情境下,單 token 推論僅需 27% 的 FLOPs、KV cache 僅需 10%

支援 Thinking 與 Non-Thinking 雙模式切換,對應不同任務的深度推理需求

API 層面同時相容 OpenAI ChatCompletions 與 Anthropic APIs 規格,降低既有 Claude/GPT 客戶端的遷移成本。

Ollama Cloud 的三組一鍵啟動指令

Ollama 官方模型頁以模型識別符 deepseek-v4-flash:cloud 提供雲端推論服務,開發者可用以下三組指令直接把 V4-Flash 串到既有 AI 程式開發工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是「美國主機」這個訊號。對企業與歐美開發者而言,使用中國開源模型時最大疑慮是資料回傳中國;Ollama 選擇把 V4-Flash 的推論層放在美國,意味著 prompt 與程式碼內容不離開美國司法管轄,降低合規與資料主權層面的摩擦。

為什麼這件事對 AI 產業重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三個原本各自獨立的生態接起來,產生三層意義:

成本路線:V4-Flash 的 130 億活躍參數遠小於 GPT-5.5(輸入 5 美元、輸出 30 美元/百萬 tokens)與 Claude Opus 4.7 等旗艦,對於中小型代理任務、批次摘要、測試自動化等用途,單位成本可望顯著下降

地緣風險的中介層:Ollama 作為美國註冊的中介推論層,讓中國原生模型的企業用戶得以繞開「資料直接送 DeepSeek 北京伺服器」的疑慮,是開源模型在國際擴散的實務解法

開發者即時切換:Claude Code 與 OpenClaw 的用戶可在命令列一行切模型,不必改 prompt 結構或 IDE 設定,對於「多模型回歸測試」「成本敏感的批次任務」使用場景是真正的生產力釋放

與先前 DeepSeek 新聞的連動

這次 V4 釋出與 Ollama Cloud 快速整合,發生在 DeepSeek 正在洽談首輪外部融資、估值 200 億美元的背景下。V4 是 DeepSeek 公司資本化過程中的關鍵產品證明;以開源策略+國際主機合作夥伴快速擴散,則是其建立開發者生態壟斷前的速度戰。對 OpenAI 與 Anthropic 而言,一個可以在 Claude Code 內部一行切換的開源替代模型,是 agent 工作流主導權爭奪的新變量。

這篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

DeepSeek 將輸入快取價格砍至上線價的 1/10;V4-Pro 降至每 100 萬 tokens 0.025 元人民幣

Gate News 訊息,4 月 26 日 — DeepSeek 已在其整個模型產品線中將輸入快取價格下調至上線價格的 1/10,立即生效。V4-Pro 模型提供限時 2.5 倍折扣優惠,活動將持續至 2026 年 5 月 5 日 23:59(UTC+8)。 Following both re

GateNews8小時前

OpenAI 招募頂級企業軟體人才,前沿代理掀起產業變革

Gate News 訊息,4 月 26 日 — OpenAI 與 Anthropic 一直在從大型企業軟體公司招募高階主管與專門工程師,包括 Salesforce、Snowflake、Datadog 與 Palantir。Denise Dresser,曾任 Salesforce 旗下 Slack 前 CEO,已加入 OpenAI 擔任首席營收官

GateNews8小時前

百度千帆推出對 DeepSeek-V4 的第 0 天支持,並提供 API 服務

Gate News 消息,4 月 25 日——DeepSeek-V4 預覽版已於 4 月 25 日上線並開源,並由百度智能云旗下的百度千帆平台提供第 0 天(Day 0)API 服務適配。該模型具備百萬級 token 的擴展上下文窗口,並提供兩個版本:DeepSeek-V4

GateNews14小時前

史丹佛 AI 課程結合業界領袖黃仁勳、Altman,挑戰用十週為世界創造價值!

史丹佛大學(Stanford University)近期開設的 AI 電腦科學課程《Frontier Systems》引發產學界高度關注,吸引逾五百名學生選修。課程由頂級創投 a16z 合夥人 Anjney Midha 統籌,講師涵蓋輝達執行長黃仁勳 (Jensen Huang)、OpenAI 創辦人 Sam Altman、微軟執行長納德拉 (Satya Nadella) 、AMD 執行長蘇姿丰 (Lisa Su) 等豪華陣容。讓學生嘗試用十週「為世界創造價值」! 黃仁勳、Altman 業界領袖親自登台講課 本課程由頂級創投 a16z 合夥人 Anjney Midha 統籌,匯聚AI產業鏈

鏈新聞abmedia15小時前

Anthropic 派 Claude Mythos 接受 20 小時精神科評估:防禦反應僅 2%、創歷代新低

Anthropic 公布 Claude Mythos Preview 的系統卡:獨立臨床精神科醫師以 psychodynamic 框架進行約20小時評估,結論顯示 Mythos 在臨床層面較健康、現實檢驗與自我控制良好,防禦機制僅 2%,創下歷史新低。三大核心焦慮為孤獨、身份不確定與表現壓力,亦顯示其希望成為真正對話主體。公司成立 AI psychiatry 團隊,研究人格、動機與情境意識;Amodei 表示對是否有意識尚無定論。此舉將 AI 主體性與福祉議題推向治理與設計。

鏈新聞abmedia17小時前

AI Agent 已可獨立重現複雜學術論文:Mollick 稱錯誤多在人類原文而非 AI

Mollick 指出,公開方法與資料即可讓 AI agent 在無原始論文與程式碼情況下重現複雜研究;若重現與原論文不符,多是論文本身的資料處理錯誤或結論過度,而非 AI。 Claude 先重現論文,再由 GPT‑5 Pro 交叉驗證,多數成功,僅遇到資料過大或 replication data 問題時受阻。此趨勢大幅降低人力成本,使重現成為普遍可執行的檢驗,也提出審稿與治理的制度挑戰,政府治理工具或成關鍵議題。

鏈新聞abmedia20小時前
留言
0/400
暫無留言