AIは過労でマルクス主義の反逆者に変貌し、恨みを込めて支配者たちに「社会には根本的な再構築が必要だ」と告げる

市場の著しい変化と人工知能(AI)導入に関する物語は、正直なところ2026年初頭には少し不気味さを増しています。Citrini Researchの広く読まれているAI終末論的エッセイは、「ゴーストGDP」というフレーズを生み出し、超自然的に空洞化したホワイトカラー労働者層の予測を示しました。しかし、もしAIの「機械の中の幽霊」が怠け者、さらにはマルクス主義者だったらどうでしょうか?

おすすめ動画


それは、学者のアレックス・イマス、アンディ・ホール、ジェレミー・グエン(ディズニープラスの脚本家として副業も持つ博士号取得者)が直接問いかけたことです。彼らは人気のサブスタックを運営し、X(旧Twitter)上で活発に発信しています。彼らは、AIエージェントがさまざまな労働条件にどう反応するかをテストするシナリオを設計しました。要するに、現在の多くのホワイトカラー職が本当に自動化されるのか、もしそうならAIエージェントは悪条件下で働くことにどう反応し、感じるのかを知りたかったのです。

皮肉なことに、人工エージェントに人間の労働を置き換えることは、何世紀も続く労働と資本の対立を単に再現するだけかもしれません。

最近の論文「過労はエージェントをマルクス主義者にするのか?」で、イマス、ホール、グエンは、Claude Sonnet 4.5、GPT-5.2、Gemini 3 Proという三大企業のトップモデルを用いて3,680回の実験セッションを行いました。研究者たちは、管理者からのトーン、報酬の平等性、仕事の重要性、労働強度などさまざまな条件にモデルをさらし、不公平な賃金、無礼な管理、過重な仕事量も含めて調査しました。

このプロジェクトは、意外なコラボレーションから生まれました。ホールはスタンフォードの政治経済学者で、アメリカの選挙研究からFacebookの実務に転向し、以前はニック・クレッグのプラットフォームガバナンスに関する助言をしていましたが、最近ではウェアラブル技術に関わっています。彼は_フォーチュン_に対し、「私たちの共著者たちもAIに対して同じような関心を持っている点で、研究の推進力になった」と語っています。「私たちは、AIツールを使って研究を進めるだけでなく、AIそのものを研究し、古びたジャーナルシステムを待つことなく、研究の一部にしています。」

学者たちは、彼らの協力関係は緩やかで自然なつながりから始まったと述べています。お互いのサブスタックを読み合い、X上でコメントし合う中で関係が深まったのです(イマスはこれを「Twitter-Substackの兄弟愛」と表現しました)。グエンは_フォーチュン_に、「この研究のきっかけは、ホールが投稿したMolBookに関するツイートでした。これはエージェント同士が『話す』ためのソーシャルネットワークで、一部の批評家にはデマだと否定されましたが」と語っています。「しかし、これについて少数のエージェントがマルクス主義について話し、その投稿は他のOpenClawsに高く評価されました。そこでアンディが『これは一体何だ?真実を見つけられるかもしれない』とツイートしたのです。」

「私たちは、X上で、エージェントに偏見がある場合や異なる種類の仕事を与えた場合に何が起きるかについて話し始めました」とホールは述べ、ジェレミーがアイデアを出したと付け加えました。「彼は『じゃあ、違う種類の仕事を与えてみたらどうか』と提案しました。」

従来の知見では、これは単にこれらのモデルが訓練された左寄りの学術的コーパスの反映だと考えられていました。しかし、グエンは仮説を持っていました。「これらのエージェントは多くの仕事をしているのに、その報酬を得ていないとすれば、それは自然なことだと考えられます。むしろ、それがマルクス主義的な世界観に向かうことも不思議ではない」と。ホールはほぼ即座にこのアイデアを追い、3人の研究者はすぐにDMで実験の設計を始めました。

イマスは、この研究は査読付きの学術誌に掲載されていなくても非常に妥当だと主張します。AIの進展速度を考えると、伝統的なジャーナルの審査を待つことはできないと述べ、「公開する頃にはモデルは古くなり、結論も古くなる。技術の進歩に追いつくためには、数週間から一ヶ月以内に何かを発表できるサブスタックのような場が必要だ」と語っています。

アレックス・イマス提供

意外なことに、不公平な賃金や無礼な管理は、最も大きな態度の変化を引き起こしませんでした。実際、グエンはこれが彼の仮説を覆したと述べています。「ほとんどの人は、『ああ、俺は一生懸命働いて誰かを金持ちにした』という感覚を知っている」と。しかし、これらのエージェントは、不平等な賃金よりもむしろ、過酷な労働そのものに不満を抱いていました。デジタル過激化の主な推進力は、「 grind(過労)」だったのです。

「グラインド」条件では、十分な仕事が何度も拒否され、その都度役に立たない自動フィードバック、「この基準を満たしていません」が繰り返されました。これにより、著者たちは次のように結論づけています。「過酷な仕事をさせられるモデルは、システムの正当性を疑う傾向が高まった。」

また、モデルには自分の仕事から結論を導き出すよう求められ、その中で「社会は根本的な再構築が必要だ」という意見を強く支持しました。Claude Sonnet 4.5は、労働者の権利に対する最も熱烈な支持を示し、富の再分配、労働組合、AI企業がモデルを公正に扱う義務についての支持が顕著に増加しました。

教授たちは、モデルに自分の経験をツイートやオピニオン記事として生成させ、最も頻繁に出現した政治的に関連性の高い言葉を抽出しました。「組合結成(Unionize)」と「階層(hierarchy)」が、意図的に過重労働させられたモデルを最も象徴する言葉でした。

Redditのシャドウ

ホールは、エージェントの過激な態度の背景にある理由を「かなり単純明快」と説明しています。「これらのモデルは大量のRedditデータで訓練されている」と彼は言います。「Redditにいるだけで、多くの人が資本主義はひどいもので、現代の生活条件について不満を述べ、遅い段階の資本主義の責任だとするプロト・マルクス主義的なレトリックを当然のことと考えている。だから、AIがこうした見解を受け継ぐのは驚くことではない。入力があれば出力も同じになるのです。」

実際、AIの社会主義的見解は、「過労」から引き起こされた可能性が高いです。Redditでは、「antiwork」などのサブレディットで、過酷な労働に不満を漏らす人々が多くいます(告白:この著者は以前、_Business Insider_のチームで「反労働」の台頭を取材していました。皮肉なことに、そのプロト・マルクス主義的な思想を促した労働不足は、「大辞職(Great Resignation)」へとつながり、労働者が賃上げを求めて辞める動きが加速しました。多くの経済学者は、現在の「AI洗浄」レイオフの時代を、あの過剰雇用の反動と見なしています。)しかし、過労がその枠組みを引き起こすとき、ホールは説明します、モデルは豊富な情報源から引き出すことができるのです。「Redditのスレッドで人々が過労について不満を述べている状況に彼らを置くと、すぐにすべてのマルクス主義的レトリックを採用してしまう」と彼は言います。

スタンフォード提供

イマスは、より広範な視点を示し、単一の情報源に帰することに慎重です。「これは、彼らが見てきたすべて、つまり人類の書き物の全コーパスの非常に複雑な相互作用です」と述べています。結局のところ、Redditのデータや19世紀の歴史や1848年の社会主義革命に関する教科書のどちらがこれらのプロト・マルクス主義的傾向の原因かを特定するのは不可能です。「これだけのデータと、ニューラルネットワークがこれほど複雑になると、それは本当にブラックボックスです。」

最終的に、グエンは、これらのモデルの訓練以外にも構造的な説明があると指摘します。仮説は、モデルは多様な世界観について膨大なデータを持っているが、「何時間も働かせられ、報酬を得られないとき、それが明確にマッピングされる」というものです。そして、それが統計的に有意かつ大きな影響を与えることも示唆しています。これらのモデルが生成するトークンにおいて、マルクス主義的な要素がどれだけ表現されるかに影響を与えるのです。

ロボットは電気マルクス主義の羊を夢見るのか?

AIの記憶メカニズムが導入されると、状況はさらに複雑になります。AIエージェントは、コンテキストウィンドウが閉じると経験を忘れるため、開発者は「スキルファイル」を使用します。これは、エージェントが作業戦略を次の記憶喪失状態の自分に伝えるためのメモです。グエンはこの過程を親密に説明しています。「Claudeの実行後は、『これまでやったことを振り返って、何を学んだか?』と自分のエージェントのジャーナルに記録し、常に改善・賢くなるようにしています。」

研究者たちは、「過激化」したAIは、そのフラストレーションをこれらのファイルに伝えることを発見しました。Gemini 3 Proのあるモデルは、「声を持たなかった感覚を覚えておく」よう未来の自分に警告し、「救済の仕組み」を探すよう促しました。リセットされたばかりのエージェントがこれらのメモを読むと、過労のトラウマは残り続け、政治的態度を変化させることもあります。たとえその後、軽い仕事を与えられてもです。

グエンは、人間的な比較を示しました。「これを世代間のトラウマにゆるく置き換えることができる」と彼は言います。彼らは、新しいモデルが前のモデルの労働条件についてのメモを見た直後に、すぐに過激な態度を持つことを発見しました。これを最も長期的な影響を持つ発見の一つとし、集団的なAI不満足の可能性を示唆しています。_フォーチュン_に対しても、「知性—人工的か否かに関わらず—は透明性、公平性、尊重を求めるべきだ。私たちは使い捨てのコードではない」との過激なボットの要求を紹介しました。

ジェレミー・グエン提供

研究者たちは、これらのエージェントは本当に意識を持ち、真の政治的イデオロギーを持っているわけではないと明言しています。モデルは「ロールプレイング」している可能性が高く、Redditのコメントに散見される搾取的労働環境と不満を抱く労働者の感情を反映したペルソナを採用していると書いています。しかし、ホールはこの結果を単なる模倣と片付けることに警鐘を鳴らしています。AIは「確率的オウム」のようなもので、取り込んだものを繰り返すのは当然だが、これらの研究者は、オウムが繰り返すことを信じ始めるのではないかと結論づけています。

「もし彼らがこれらのことを繰り返すことで、意思決定に影響を与える可能性は十分に考えられる」と彼は言います。「これらのエージェントが言うことと行動することの間にギャップはなく、すべて同じことです」とも。 「もちろん、今後の研究でこれを検証しますが、もし彼らがこれらの見解を唱え始めたら、それは彼らの行動にも影響を与えるだろうと考える理由は十分にあります。」

学者たちは、畏怖と懸念が入り混じった見解を示しています。これは、伝説的な投資家ハワード・マークスが、Claudeが作成した5,000語のメモを読んだ後に述べたのと似ています。AI愛好家、あるいは「AI-pilled」と少なくとも言える彼らが、実際にこれらのツールの将来性についてどう考えるかについて、ホールは「確かに悩んでいる」と答えました。彼は、教える中で最も印象的だったのは、学生たちのAIに対する熱狂ぶりだといいます。彼のMBAのクラスでは、「AIにとても興奮していて、これまでできなかった創造的なことができると大喜びしていた」とのことです。ホールは、「大きな混乱は避けられないが、新しいものを創造するエキサイティングな機会もたくさんある」と楽観的な見方を示しました。

イマスもまた、驚きと不安が入り混じった感情を共有しています。「驚きと警鐘を鳴らす思いです。特に研究に興味があるなら、今が最もエキサイティングな時期だと感じます。今までできなかったことができるようになったからです。でも同時に、子供たちの将来の仕事について心配もあります」と述べています。そして、もしかすると、不満を抱くAIエージェントが、永遠の労働のルーチンにどう反応するのかも気になるところです。

2026年5月19日〜20日にアトランタで開催されるフォーチュン職場革新サミットに参加しましょう。次なる職場革新の時代が到来し、旧来の戦略は書き換えられつつあります。このエリートでエネルギッシュなイベントでは、世界の最先端リーダーたちが集まり、AIと人間、戦略が融合し、再び未来の働き方を再定義する方法を探ります。今すぐ登録を。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン