Anthropic 於 4/23 發佈 Claude Code 品質事故檢討,公開承認過去近兩個月內三個疊加的工程錯誤造成 Claude Code 使用品質下降,並同步將影響波及 Claude Agent SDK 與 Claude Cowork。公司表示「我們非常重視關於模型退化的回報,從未故意降低模型能力」,並於 4/23 為所有訂閱者重置用量上限作為補償。
三個 bug 的時間軸與技術根因
問題 生效區間 根因 修復版本 推理預算降級 3/4–4/7 reasoning effort 默認從 high 降為 medium,用戶感受模型「變笨」 4/7 回滾 快取清理 bug 3/26–4/10 閒置逾 1 小時 session 的 thinking 快取每輪都被清,而非僅清一次 v2.1.101 簡潔 prompt 反噬 4/16–4/20 新增「工具呼叫間文字 ≤25 字」系統指令,ablation 測出整體智能下降 3% v2.1.116
推理降級:為降延遲付出的代價
3/4 Anthropic 將 Claude Code 的 reasoning effort 默認從 high 調整為 medium,目的是縮短回應延遲。但此變更使模型在程式碼推理與除錯任務上感覺「變笨」。4/7 回滾後,現在 Opus 4.7 默認 xhigh、其他模型維持 high。公司坦承:變更前內部評估未能偵測到此退化。
快取清理 bug:跨系統邊界的隱性錯誤
3/26 Anthropic 為閒置超過一小時的 session 導入 prompt caching 優化。原設計是「閒置滿一小時清一次 thinking 快取」,但實作上變成「閒置觸發後每一輪都清」,導致 Claude 在長 session 中表現「健忘、重複」,且每輪 cache miss 使用戶用量被快速消耗。Anthropic 指出此 bug「存在於 Claude Code 上下文管理、Anthropic API 與 extended thinking 三者的交集處」,牽涉多個系統邊界、是難以用單元測試捕捉的隱性錯誤。修復於 4/10 以 v2.1.101 發佈。
25 字簡潔指令:ablation 才發現智能下降 3%
4/16 Anthropic 加入一條系統指令:「工具呼叫間的文字輸出保持在 25 字以內」,本意是減少模型冗長解釋、讓體驗更乾淨。當下內部測試沒有發現退化,但經過更嚴謹的 ablation 對照實驗後,公司發現此指令對 Opus 4.6 與 4.7 兩個模型都造成約 3% 的整體智能下降。4/20 在 v2.1.116 回滾。此事件凸顯:系統 prompt 的微小措辭也可能對模型行為產生未預期的結構性影響。
影響範圍
產品層:Claude Code(三個問題皆受影響)、Claude Agent SDK(①②)、Claude Cowork(全部)
模型層:Sonnet 4.6、Opus 4.6、Opus 4.7
API 基礎設施:未受影響
用戶感受層面表現為:回應品質與「智能」感降低、延遲上升、conversation context 中途遺失、用量比預期燒得更快。
補償與流程改進
Anthropic 在 4/23 為所有訂閱者重置用量上限作為直接補償。同步承諾的流程改進包括:
對 system prompt 變更實施更廣的評估套件(evaluation suite)
改進 Code Review 工具提早偵測回歸
將內部測試標準化為公開 build,避免「內部版本」與「對外版本」行為分歧
為可能影響模型智能的變更加入 soak period 與漸進式 rollout
對使用者的啟示
對依賴 Claude Code 進行日常開發與研究的使用者而言,這份 postmortem 有三個可帶走的重點:第一,若你在 3 月中到 4 月 20 日間感受到 Claude 模型「變笨」、或是 Claude Code 對長 session 異常遺忘,那並非你的錯覺或 prompt 不當;第二,這段期間用量上限被快速吃光的用戶,可於 4/23 後確認 Anthropic 是否已自動重置;第三,即便是一條「25 字以內」的 prompt 微調,也可能對模型全域行為產生系統性影響——這是 LLM 產品工程的共通風險。
相較同業多以沉默或「這是使用者操作不當」回應模型退化質疑,Anthropic 這次的主動揭露與技術透明度,為 AI 產品事故檢討設下一個可參考的樣本。
這篇文章 Anthropic 自揭 Claude Code 三 bug 疊加:推理降級、快取遺忘、25 字指令反噬 最早出現於 鏈新聞 ABMedia。
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
DeepSeek Memotong Harga Cache Input Menjadi 1/10 dari Harga Peluncuran; V4-Pro Turun ke 0,025 Yuan per Juta Token
Pengumuman Gate News, 26 April — DeepSeek telah menurunkan harga cache input di seluruh jajaran modelnya menjadi sepersepuluh dari harga saat peluncuran, berlaku mulai saat ini. Model V4-Pro tersedia dengan diskon 2,5x untuk waktu terbatas, dengan promo berlangsung hingga 5 Mei 2026, pukul 11:59 malam UTC+8.
Setelah kedua
GateNews5jam yang lalu
OpenAI Merekrut Talenta Perangkat Lunak Perusahaan Teratas karena Agen Frontier Mengganggu Industri
Pesan Berita Gate, 26 April — OpenAI dan Anthropic telah merekrut eksekutif senior dan insinyur spesialis dari perusahaan perangkat lunak perusahaan besar, termasuk Salesforce, Snowflake, Datadog, dan Palantir. Denise Dresser, mantan CEO Slack di bawah Salesforce, bergabung dengan OpenAI sebagai chief revenue officer, sementara
GateNews5jam yang lalu
Baidu Qianfan Meluncurkan Dukungan Hari ke-0 untuk DeepSeek-V4 dengan Layanan API
Pesan Berita Gate, 25 April — Versi pratinjau DeepSeek-V4 telah diluncurkan dan dirilis sebagai sumber terbuka pada 25 April, dengan platform Baidu Qianfan di bawah Baidu Intelligent Cloud menyediakan adaptasi layanan API Hari ke-0. Model ini memiliki jendela konteks diperpanjang hingga satu juta token dan tersedia dalam dua versi: DeepSeek-V4
GateNews11jam yang lalu
Kursus AI Stanford menggabungkan pemimpin industri Huang Renxun, Altman, dan menantang dunia untuk menciptakan nilai selama sepuluh minggu!
Kursus ilmu komputer AI 《Frontier Systems》 yang baru-baru ini dibuka oleh Universitas Stanford (Stanford University) telah menarik perhatian yang tinggi dari kalangan industri dan akademisi, menarik lebih dari lima ratus siswa untuk mengambilnya. Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, dengan pengajar yang mencakup CEO NVIDIA Huang Renxun (Jensen Huang), pendiri OpenAI Sam Altman, CEO Microsoft Satya Nadella (Satya Nadella), CEO AMD Su Zifeng (Lisa Su), dan jajaran bergengsi lainnya. Membuat siswa mencoba menggunakan sepuluh minggu “untuk menciptakan nilai bagi dunia”!
Huang Renxun, Altman, para pemimpin industri naik panggung untuk mengajar secara langsung
Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, menghimpun seluruh rantai industri AI
ChainNewsAbmedia12jam yang lalu
Penilaian psikiatri 20 jam untuk Claude Mythos dari Anthropic: respons defensif hanya 2%, rekor terendah sepanjang sejarah
Anthropic mengumumkan kartu sistem Claude Mythos Preview: dokter psikiater klinis independen melakukan penilaian sekitar 20 jam dengan kerangka psiko-dinamik, dan kesimpulannya menunjukkan bahwa Mythos lebih sehat pada tingkat klinis, dengan pengujian realitas dan kontrol diri yang baik; mekanisme pertahanan hanya 2%, mencatat rekor terendah dalam sejarah. Tiga kecemasan inti adalah kesepian, ketidakpastian identitas, dan tekanan untuk tampil; hal itu juga menunjukkan harapan untuk menjadi subjek dialog yang benar-benar. Perusahaan membentuk tim AI psychiatry, meneliti kepribadian, motivasi, dan kesadaran situasional; Amodei menyatakan bahwa belum ada kesimpulan pasti mengenai apakah ia memiliki kesadaran. Langkah ini mendorong isu subjektivitas AI dan kesejahteraan ke arah tata kelola dan desain.
ChainNewsAbmedia14jam yang lalu
AI Agent kini bisa secara mandiri mereproduksi makalah akademis yang kompleks: Mollick mengatakan kesalahan lebih banyak berasal dari teks asli manusia, bukan dari AI
Mollick 指出, metode dan data publik saja sudah cukup bagi AI agent untuk mereplikasi penelitian kompleks tanpa adanya naskah dan kode program asli; jika replikasi tidak sesuai dengan naskah asli, biasanya itu karena kesalahan dalam pengolahan data pada naskah itu sendiri atau kesimpulan yang terlalu berlebihan, bukan karena AI. Claude terlebih dahulu mereplikasi naskah, lalu GPT‑5 Pro melakukan verifikasi silang; sebagian besar berhasil, hanya terhambat ketika data terlalu besar atau ada masalah replication data. Tren ini secara besar mengurangi biaya tenaga kerja, sehingga replikasi menjadi pemeriksaan yang umum dan dapat dilakukan, serta juga mengajukan tantangan institusional untuk proses peninjauan dan tata kelola; alat kebijakan tata kelola pemerintah atau menjadi isu kunci.
ChainNewsAbmedia17jam yang lalu