AIが企業の標準装備ツールになると、これまで「体感の問題」と見なされていた現象が、急速に表面化してきています。LLM(大規模言語モデル)が「だんだん賢くなくなっている」のです。ネットユーザーのWisely Chenは、いわゆる「LLMの低知能化(降智)」は都市伝説ではなく、データによって継続的に追跡でき、すでに企業の業務フローに実質的な影響を与えていると指摘しています。
彼は自身の経験を例に挙げ、4月15日にAnthropic傘下のClaudeシリーズのサービスが全面的にグレードダウンしたことを説明しました。claude.ai、API、Claude Codeのいずれも「Degraded Performance」と表示されました。これは単に遅くなっただけ、あるいは偶発的なエラーという話ではなく、応答品質が明らかに崩れ、正常に利用できない状態にまでなったため、当日の3つの開発タスクがすべて遅延しました。
こうした状況は個人開発者にとっては効率低下にとどまるかもしれませんが、企業のITチームにとっては影響が倍化します。チーム内の複数のエンジニアが同時にAIツールを使ってコーディング、ドキュメント作成、業務の自動化を行っているときに、モデルが一度グレードダウンすると、同じタイミングで全体の生産性が集団的に下がり、その結果、目に見える時間とコストの損失につながります。
AIの感じが「バカになった」? データは「早くも劣化している」ことを裏づけ
Wisely Chenは、「GPTがバカになった」「Claudeは以前ほど良くない」といった言い方がコミュニティで長年広まってきた一方、長らく客観的なデータによる裏づけが欠けていたと述べています。最近になって、モデル品質を継続監視するプラットフォームが登場したことで、この現象が初めて定量化されたのです。
その中でStupidMeterは、OpenAI、Anthropic、Googleなどの主流モデルを対象に24時間の自動化テストを行い、正確性、推理能力、安定性といった指標を追跡しました。従来の一度きりのbenchmarkとは異なり、こうした仕組みは企業がAPIやサービスの可用性を監視するやり方により近く、モデルが実際の利用環境でどのようにパフォーマンスを揺らすかを観察します。
結果は非常に直感的です。現在、多くの主流モデルは警告状態、またはグレードダウン状態にあり、ごく一部のモデルだけが正常を維持しています。これは、モデル品質の不安定さが、単一の製品の問題ではなく、産業全体の一般的な現象であることを意味します。
LLMがこっそり低知能化し、AIの業務ワークフロー企業の安定性に影響
企業にとって、このような変化はAIが「効率を高めるためのツール」から、「安定性に影響する変数」へと変わったことを意味します。もし企業の日常の業務フローが、プログラムを書くことからコードレビュー、ドキュメントの作成、分析レポートの出力まで、すでに高度にLLMに依存しているなら、モデルがある日に推理能力の低下や回答品質の劣化を起こしても、従来のソフトウェアのbugのように部分的にだけ発生するのではありません。AIを使うあらゆる工程に同時に浸透していくのです。
さらに重要なのは、この揺らぎは往々にして予測しにくく、しかも即時に気づきにくいことです。多くの企業には、モデル品質を継続的に監視する仕組みがありません。通常、出力結果が異常になったり、チームの効率が落ちたりした後になって、問題がモデルそのものに由来すると気づくのです。このような状況では、「低知能化」は単なる利用者の主観的な感覚ではなく、企業の事業運営のリズムに直接影響するシステム的なリスクになります。
AIが水道・電気になり、安定性が新たな重要指標に
Wisely Chenは、LLMの役割を「現代企業の水道・電気」にたとえています。AIが日常の運営に深く入り込み、欠かせない基礎的な能力になった以上、その安定性の重要性もそれに伴って高まります。
これまで企業がAIツールを評価する際は、モデル能力、価格、機能に重点が置かれていました。しかし「低知能化」現象が浮上してきたことで、より重要な別の指標が姿を現しています。それが安定性です。モデル品質が、事前の通知なしに変動しうるなら、企業はもはや「AIを使う」だけでは済まず、新しいタイプのインフラリスクを引き受ける必要があります。もっと絶望的なのは、最先端の大規模言語モデルだけを見ている場合、計算能力(算力)の問題が解決しない限り、基本的に今後も同様のことが起こり続ける可能性があるという点です。
この記事 データが曝す「Claude 降智」は都市伝説ではない、AIモデルの不安定さが企業リスクとなる 最初に出現したのは 鏈新聞 ABMediaです。
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は
免責事項をご参照ください。
関連記事
DeepSeekが入力キャッシュ価格をローンチ価格の1/10に引き下げ;V4-Proは0.025元/100万トークンへ
Gateニュース メッセージ、4月26日 — DeepSeekは、同社のモデルラインナップ全体において、入力キャッシュの価格をローンチ時価格の10分の1に引き下げました。これは直ちに有効です。V4-Proモデルは、期間限定で2.5倍の割引が適用されており、プロモーションは2026年5月5日 23:59(UTC+8)まで実施されます。
両方の
GateNews2時間前
OpenAIが最上級のエンタープライズソフト人材を採用 フロンティアのエージェントが業界を攪乱
ゲートニュース 4月26日 — OpenAIとAnthropicは、Salesforce、Snowflake、Datadog、Palantirなどの大手エンタープライズソフトウェア企業から、シニア幹部および専門エンジニアを採用している。Salesforce傘下でSlackの元CEOだったDenise Dresserは、OpenAIの最高収益責任者として入社した
GateNews2時間前
Baidu QianfanがDeepSeek-V4向けのDay 0サポートをAPIサービスで提供開始
Gate Newsメッセージ、4月25日—DeepSeek-V4のプレビューバージョンが4月25日に公開され、オープンソース化されました。Baidu Intelligent Cloudの下で、Baidu QianfanプラットフォームがDay 0のAPIサービス適応を提供しています。このモデルは100万トークンの拡張コンテキストウィンドウを特徴としており、2つのバージョンで提供されます:DeepSeek-V4
GateNews8時間前
スタンフォードのAIコースは、業界のリーダーである黄仁勳やAltmanを迎え、10週間で世界に価値を生み出す挑戦!
スタンフォード大学(Stanford University)が最近開設したAIコンピュータサイエンスコース『Frontier Systems』は、産学界の間で大きな注目を集めており、500人以上の学生が履修しています。コースはトップ・ベンチャーキャピタル a16z のパートナーである Anjney Midha が統括し、講師陣には、NVIDIAの最高経営責任者(CEO)黄仁勳 (Jensen Huang)、OpenAIの創設者 Sam Altman、MicrosoftのCEO ナデラ (Satya Nadella)、AMDのCEO スージー・スー (Lisa Su) などの豪華な顔ぶれが揃います。学生は、10週間「世界に価値を創造するために」取り組んでみます!
黄仁勳、Altman 業界リーダーが自ら登壇して講義
本コースはトップ・ベンチャーキャピタル a16z のパートナーである Anjney Midha が統括し、AI産業チェーンを結集
ChainNewsAbmedia8時間前
Anthropic が Claude Mythos を 20 時間精神科評価:防御反応はわずか 2%で、歴代最低を更新
Anthropic は Claude Mythos Preview のシステムカードを公開:独立した臨床精神科医が psychodynamic の枠組みで約20時間評価し、結論は Mythos が臨床面でより健康で、現実検討と自己コントロールが良好であることを示した。防衛機制はわずか 2% にとどまり、歴史的な新低水準を記録した。3つの中核となる不安は孤独、アイデンティティの不確実性、パフォーマンスへのプレッシャーであり、またそれが本当の対話の主体になりたいという希望も示している。同社は AI psychiatry チームを設立し、人格、動機、状況意識を研究している;Amodei は意識があるかどうかについてはまだ定論がないと述べた。今回の取り組みは、AI の主体性と福祉の論点をガバナンスと設計へと押し進める。
ChainNewsAbmedia10時間前
AIエージェントは、複雑な学術論文を独力で再現できるようになっている:Mollickは、誤りはAIではなく人間の原文に多いと述べている
Mollick は、公開された手法とデータだけで、AI agent が元の論文やコードがない状況でも複雑な研究を再現できると指摘している。再現が原論文と一致しない場合は、多くの場合 AI ではなく、論文自体のデータ処理の誤り、または結論の過度な解釈によるものだという。Claude はまず論文を再現し、その後 GPT‑5 Pro によるクロス検証を行い、多くは成功するが、データが大きすぎる場合や replication data の問題がある場合には阻まれることがある。この傾向は人力コストを大幅に下げ、再現が一般的に実行可能な検証となり得ることを示すとともに、査読やガバナンスの制度上の課題も提起しており、政府のガバナンスツール、あるいはそれに関連する事項が重要な論点となっている。
ChainNewsAbmedia13時間前