Anthropic が Claude Code の3つのバグを自ら開示:推論の低下、キャッシュの忘却、25文字の指令による逆襲

ChainNewsAbmedia

Anthropic は4/23に Claude Code の品質事故の検討を公開し、過去2か月ほどの間に重なって発生した3つのエンジニアリング上の誤りが Claude Code の利用品質を低下させたことを公に認め、同時にその影響が Claude Agent SDK と Claude Cowork にも波及することを示した。会社は「当社はモデルの劣化に関するフィードバックを非常に重視しており、故意にモデル能力を引き下げたことはない」と述べ、4/23にすべての加入者の利用上限をリセットして補償した。

3つの bug のタイムラインと技術的な根因

問題 発効期間 根因 修復バージョン 推論予算の降級 3/4–4/7 reasoning effort デフォルトが high から medium に下がり、ユーザーはモデルが「より賢くなくなった」と感じる 4/7 ロールバック キャッシュクリーニング bug 3/26–4/10 1時間超のアイドル状態の session の thinking キャッシュが、最後に1回だけではなく毎回クリアされる v2.1.101 簡潔プロンプトの反噬 4/16–4/20 「ツール呼び出し間の文字 ≤25字」というシステム指示を追加し、ablation テストで全体のインテリジェンスが3%低下した v2.1.116

推論降級:遅延を減らす代償

3/4 Anthropic は Claude Code の reasoning effort のデフォルトを high から medium に調整した。目的は応答遅延を短縮することだった。しかしこの変更により、モデルはコード推論やデバッグのタスクで「賢くなくなった」と感じられるようになった。4/7 にロールバックした後は、現在 Opus 4.7 はデフォルトで xhigh、その他のモデルは high を維持している。同社は認めた:変更前の社内評価では、この劣化を検知できなかった。

キャッシュクリーニング bug:システム境界をまたぐ暗黙の誤り

3/26 Anthropic は、アイドルが1時間を超えた session に対して prompt caching の最適化を導入した。元の設計は「アイドルが満1時間になったら thinking キャッシュを1回クリアする」だったが、実装上は「アイドル発生後は毎ラウンドでクリアする」になってしまい、その結果 Claude は長い session の中で「物忘れしがちで、繰り返しが多い」ように振る舞い、さらに毎ラウンドでキャッシュミスが起きてユーザーの利用量が急速に消費されることになった。Anthropic は、この bug が「Claude Code のコンテキスト管理、Anthropic API、extended thinking の3つの交差点に存在する」ことを指摘しており、複数のシステム境界にまたがるため、単体テストだけで捕捉するのが難しい暗黙の誤りだという。修復は 4/10 に v2.1.101 としてリリースされた。

25字の簡潔指示:ablation で初めてインテリジェンス低下を発見

4/16 Anthropic はシステム指示を1つ追加した:「ツール呼び出し間の文字出力は 25 字以内に保つ」。意図は、モデルの冗長な説明を減らし、体験をよりすっきりさせることだった。当時の社内テストでは劣化は見つからなかったが、より厳密な ablation による対照実験の後、同社はこの指示が Opus 4.6 と 4.7 の両モデルでそれぞれ約3%の全体インテリジェンス低下を引き起こしたことを突き止めた。4/20 に v2.1.116 でロールバックした。この出来事は、システムプロンプトのわずかな言い回しが、モデルの振る舞いに未予期の構造的影響をもたらし得ることを浮き彫りにした。

影響範囲

製品層:Claude Code(3つの問題すべてが影響)、Claude Agent SDK(①②)、Claude Cowork(すべて)

モデル層:Sonnet 4.6、Opus 4.6、Opus 4.7

API基盤施設:影響なし

ユーザー体感の面では次のように表れた:応答品質と「インテリジェンス」が低下、遅延の上昇、conversation context の途中での喪失、利用量が予想より速く燃え尽きる。

補償とプロセス改善

Anthropic は 4/23 にすべての加入者の利用上限をリセットして直接補償した。同時に約束したプロセス改善には以下が含まれる:

system prompt の変更に対して、より広い評価スイート(evaluation suite)を実施する

Code Review ツールで回帰を早期に検知するよう改善

社内テスト基準を公開 build に標準化し、「社内バージョン」と「対外バージョン」の挙動の相違を避ける

モデルのインテリジェンスに影響し得る変更に soak period と段階的ロールアウトを追加する

ユーザーへの示唆

日常の開発や研究で Claude Code に依存しているユーザーにとって、この postmortem には3つの持ち帰りポイントがある。第一に、あなたが 3月中旬から 4月20日までに Claude モデルが「賢くなくなった」と感じたり、Claude Code が長い session で異常に物忘れするのなら、それはあなたの錯覚や prompt の不適切さではない。第二に、この期間に利用上限が素早く食い尽くされてしまったユーザーは、4/23 後に Anthropic が自動で利用上限をリセットしたかどうかを確認できる。第三に、「25字以内」の prompt 微調整であっても、モデルの全域の振る舞いにシステム的な影響を与える可能性がある――これは LLM 製品エンジニアリングに共通するリスクだ。

同業他社が沈黙するか、あるいは「ユーザーの操作が不適切」だとしてモデルの劣化への疑問に応えることが多いのに対し、Anthropic は今回、積極的に開示し技術的な透明性を示した。これは AI 製品事故の検討における、参照可能なサンプルを示すものだ。

この記事は、Anthropic が Claude Code の3つの bug の重なり――推論降級、キャッシュの忘却、25字指示の反噬――を自ら明かしたもので、最初に 鏈新聞 ABMedia に掲載された。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

Anthropic、2026年の中間選挙に先駆けてClaude向けに選挙の安全対策を導入

Anthropicは金曜日、2026年の米国中間選挙や今年世界中で行われるその他の主要な選挙を前に、同社のClaude AIチャットボットが武器化されて誤情報を拡散したり、有権者を操作したりすることを防ぐことを目的とした、一連の選挙の信頼性に関する施策を発表した。サンフランシスコ拠点の

CryptoFrontier1時間前

DeepRoute.ai 先進運転支援システム突破 30万台の車両配備:2026年目標 100万都市 NOA 車隊

DeepRoute.ai は、中国で高度運転支援の累計配備が30万台を超えたと発表し、過去1年で18万回を超える潜在的な事故の回避に貢献した。2026年の目標は、都市部のNOA車両隊が100万台に達し、稼働率が50%を超えることであり、Robotaxi の大規模商用化に向けた重要な鍵と見なされている。これは、中国の自動運転が日常的な利用段階に入ったことを示すと同時に、米国の垂直統合の進め方とは異なる道筋があり、アジア太平洋のサプライチェーンのタイムラインに影響を与える。

ChainNewsAbmedia2時間前

DeepSeekがV4-ProとV4-Flashモデルを、OpenAIのGPT-5.5 Proより98%低コストでリリース

ゲートニュース(4月25日)— DeepSeekは4月24日にV4-ProおよびV4-Flashのプレビュー版をリリースした。どちらも100万トークンのコンテキストウィンドウを持つオープンウェイトモデルである。V4-Proは総パラメータ1.6兆を備えるが、Mixture-of-Expertsアーキテクチャを用いて推論1回あたり49億のみを有効化する。

GateNews8時間前

Judge Dismisses Fraud Claims in Elon Musk's OpenAI Lawsuit; Case Advances to Trial with Two Remaining Allegations

Gate News message, April 24 — A federal judge has dismissed fraud claims from Elon Musk's lawsuit against OpenAI, Sam Altman, Greg Brockman, and Microsoft, clearing the way for the case to proceed to trial on two remaining allegations: breach of charitable trust and unjust enrichment. U.S.

GateNews11時間前

OpenAI CEOのサム・アルトマン、学校銃撃犯の出禁アカウントを警察に通報できなかったことについて謝罪

Gate Newsメッセージ、4月25日 — OpenAIの最高経営責任者(CEO)サム・アルトマンは、カナダのタンボリン・コミュニティに対し、同社がジェシー・ヴァン・ルートセラールに関連する出禁アカウントについて警察に通報できなかったことを謝罪した。ルートセラールは2月に学校で8人を殺害し、その後自ら命を絶っていた。OpenAI

GateNews11時間前

UAEは今後2年間でAI政府モデルへの移行を発表

モハメド・ビン・ラシッド・アル・マクトゥーム殿下は、目標は政府の分野の50%を自律的なエージェント型AIを通じて運用することだと述べました。移行には「AIをマスターする」ための連邦職員の訓練も含まれ、シェイク・マンスール・ビン・ザイードが監督します。 要点:

Coinpedia11時間前
コメント
0/400
コメントなし