根据 The Inference 于 2026 年 4 月 21 日刊出的作者 Pedro Dias 的深入分析文章,AI 模型崩溃(model collapse)并非业界担心的“未来威胁”——它正以另一种形式即时发生:AI 答题引擎在查询当下即即时引用其他 AI 生成的网页内容作为权威来源,整个污染循环无需经过模型重训练。这个论点以“咬住自己尾巴的蛇(Ouroboros)学会了引用自己”作为核心比喻。
Model Collapse 与 Retrieval Contamination 的关键差异
传统对 AI 模型退化的担忧围绕 model collapse:合成内容逐步污染训练数据、未来世代模型品质下滑。这是慢性、需要多轮重训练才显现的风险。
Pedro Dias 提出的警讯是另一个层面:retrieval contamination(检索污染)。Perplexity、Google AI Overviews、ChatGPT、Grok 等以 RAG(retrieval-augmented generation)为基础的答题引擎,在使用者提问的当下即即时抓取网页内容作为答案依据。如果抓到的网页本身就是 AI 生成的错误内容,引擎就把它当成事实呈现给读者——而且这项污染不需要任何重训练即可即时生效。
三个真实案例:AI 引擎被自己生成的假讯息欺骗
作者列出三个具体事件:
一、Lily Ray 事件:Perplexity 曾引用一个名为“September 2025 Perspective Core Algorithm Update”的所谓 Google 演算法更新作为权威资讯——这个更新根本不存在,来源是 AI 生成的 SEO 部落格假文。
二、Thomas Germain 实测:记者 Thomas Germain 发了一篇测试性部落格“吃热狗最强的科技记者”,24 小时内就被 Google AI Overviews 与 ChatGPT 排在第一位并引用,还虚构出一个不存在的“南达科他州锦标赛”加以佐证。
三、Grokipedia:Musk 旗下 xAI 的百科计划已生成或改写 885,279 篇文章,包含错误事实(例如加拿大歌手 Feist 的父亲逝世日期写错)与无据引用。Grokipedia 2026 年 2 月中已在 Google 失去大部分能见度。
Oumi 研究:Gemini 3 正确率高,但 56% 没来源
NYT 委托 Oumi 进行的评估:Gemini 2 在 SimpleQA 基准测试正确率 85%、Gemini 3 提升到 91%。但同一个测试显示,Gemini 3 的正确答案中有 56% 是“ungrounded”——模型回答对了但没有可验证的支持来源;Gemini 2 的此比例为 37%。
这意味着新世代模型在答案“形式上更精确”,却同时在“答案来源可追溯性”上退步。对于媒体、研究、事实查核等场景,这项退步比纯粹错误率更致命,因为读者无法回溯到原始权威文件自行验证。
产业规模:Google AI Overviews 覆盖 20 亿用户
这个污染问题的产业规模:Google AI Overviews 月活用户超过 20 亿、Google 年搜索量超过 5 兆次、ChatGPT 週活接近 9 亿(5,000 万付费)。也就是说绝大多数网路使用者取得事实资讯的管道,都已经走过“可能被 AI 生成内容污染”的答题引擎层。
Ahrefs 另外的研究显示,ChatGPT 引用的来源中有 44% 是“best X”类榜单文——这类文章正是 SEO 业为对抗答题引擎流失流量而大量产出的 AI 内容,恰好构成答题引擎的主要污染来源。
结构性结论:引用层已与可靠作者身份脱钩
作者的最终论断:AI 答题引擎的引用层已经与可靠作者身份脱钩。SEO 业产出 AI 内容 → 答题引擎抓来当事实 → 读者相信 → SEO 业获得激励继续产出更多 AI 内容,形成自我强化的污染循环。目前整个产业没有明确的问责机制让 AI 引擎对自己引用的来源品质负责。
对于使用者而言,这意味着现阶段不能把 Perplexity、AI Overviews、ChatGPT 的回答当作事实查核的终点,仍需要人工回溯到官方一手来源才能确保准确。
这篇文章 AI 答题引擎集体污染:Gemini 3 正确答案中 56% 无来源支持 最早出现于 鏈新聞 ABMedia。
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
DeepSeek Memotong Harga Cache Input Menjadi 1/10 dari Harga Peluncuran; V4-Pro Turun ke 0,025 Yuan per Juta Token
Pengumuman Gate News, 26 April — DeepSeek telah menurunkan harga cache input di seluruh jajaran modelnya menjadi sepersepuluh dari harga saat peluncuran, berlaku mulai saat ini. Model V4-Pro tersedia dengan diskon 2,5x untuk waktu terbatas, dengan promo berlangsung hingga 5 Mei 2026, pukul 11:59 malam UTC+8.
Setelah kedua
GateNews3jam yang lalu
OpenAI Merekrut Talenta Perangkat Lunak Perusahaan Teratas karena Agen Frontier Mengganggu Industri
Pesan Berita Gate, 26 April — OpenAI dan Anthropic telah merekrut eksekutif senior dan insinyur spesialis dari perusahaan perangkat lunak perusahaan besar, termasuk Salesforce, Snowflake, Datadog, dan Palantir. Denise Dresser, mantan CEO Slack di bawah Salesforce, bergabung dengan OpenAI sebagai chief revenue officer, sementara
GateNews3jam yang lalu
Baidu Qianfan Meluncurkan Dukungan Hari ke-0 untuk DeepSeek-V4 dengan Layanan API
Pesan Berita Gate, 25 April — Versi pratinjau DeepSeek-V4 telah diluncurkan dan dirilis sebagai sumber terbuka pada 25 April, dengan platform Baidu Qianfan di bawah Baidu Intelligent Cloud menyediakan adaptasi layanan API Hari ke-0. Model ini memiliki jendela konteks diperpanjang hingga satu juta token dan tersedia dalam dua versi: DeepSeek-V4
GateNews9jam yang lalu
Kursus AI Stanford menggabungkan pemimpin industri Huang Renxun, Altman, dan menantang dunia untuk menciptakan nilai selama sepuluh minggu!
Kursus ilmu komputer AI 《Frontier Systems》 yang baru-baru ini dibuka oleh Universitas Stanford (Stanford University) telah menarik perhatian yang tinggi dari kalangan industri dan akademisi, menarik lebih dari lima ratus siswa untuk mengambilnya. Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, dengan pengajar yang mencakup CEO NVIDIA Huang Renxun (Jensen Huang), pendiri OpenAI Sam Altman, CEO Microsoft Satya Nadella (Satya Nadella), CEO AMD Su Zifeng (Lisa Su), dan jajaran bergengsi lainnya. Membuat siswa mencoba menggunakan sepuluh minggu “untuk menciptakan nilai bagi dunia”!
Huang Renxun, Altman, para pemimpin industri naik panggung untuk mengajar secara langsung
Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, menghimpun seluruh rantai industri AI
ChainNewsAbmedia10jam yang lalu
Penilaian psikiatri 20 jam untuk Claude Mythos dari Anthropic: respons defensif hanya 2%, rekor terendah sepanjang sejarah
Anthropic mengumumkan kartu sistem Claude Mythos Preview: dokter psikiater klinis independen melakukan penilaian sekitar 20 jam dengan kerangka psiko-dinamik, dan kesimpulannya menunjukkan bahwa Mythos lebih sehat pada tingkat klinis, dengan pengujian realitas dan kontrol diri yang baik; mekanisme pertahanan hanya 2%, mencatat rekor terendah dalam sejarah. Tiga kecemasan inti adalah kesepian, ketidakpastian identitas, dan tekanan untuk tampil; hal itu juga menunjukkan harapan untuk menjadi subjek dialog yang benar-benar. Perusahaan membentuk tim AI psychiatry, meneliti kepribadian, motivasi, dan kesadaran situasional; Amodei menyatakan bahwa belum ada kesimpulan pasti mengenai apakah ia memiliki kesadaran. Langkah ini mendorong isu subjektivitas AI dan kesejahteraan ke arah tata kelola dan desain.
ChainNewsAbmedia12jam yang lalu
AI Agent kini bisa secara mandiri mereproduksi makalah akademis yang kompleks: Mollick mengatakan kesalahan lebih banyak berasal dari teks asli manusia, bukan dari AI
Mollick 指出, metode dan data publik saja sudah cukup bagi AI agent untuk mereplikasi penelitian kompleks tanpa adanya naskah dan kode program asli; jika replikasi tidak sesuai dengan naskah asli, biasanya itu karena kesalahan dalam pengolahan data pada naskah itu sendiri atau kesimpulan yang terlalu berlebihan, bukan karena AI. Claude terlebih dahulu mereplikasi naskah, lalu GPT‑5 Pro melakukan verifikasi silang; sebagian besar berhasil, hanya terhambat ketika data terlalu besar atau ada masalah replication data. Tren ini secara besar mengurangi biaya tenaga kerja, sehingga replikasi menjadi pemeriksaan yang umum dan dapat dilakukan, serta juga mengajukan tantangan institusional untuk proses peninjauan dan tata kelola; alat kebijakan tata kelola pemerintah atau menjadi isu kunci.
ChainNewsAbmedia15jam yang lalu