Колективне забруднення AI-движка для відповідей: у правильних відповідях Gemini 3 56% не мають підтримки з джерел

Згідно з глибоким аналітичним матеріалом автора Pedro Dias, опублікованим The Inference 21 квітня 2026 року, колапс моделей (model collapse) — це не «майбутня загроза», якої найбільше боїться індустрія. Він уже відбувається прямо зараз в іншій формі: AI-движки для відповідей у момент запиту користувача негайно цитують вебсторінки, згенеровані іншими AI, як авторитетні джерела. Увесь цикл забруднення не потребує повторного перенавчання моделей. Цей аргумент подано з основною метафорою: «змія, що кусає себе за хвіст (Ouroboros), навчилася посилатися на саму себе».

Ключові відмінності Model Collapse і Retrieval Contamination

Традиційні побоювання щодо погіршення якості AI-моделей зосереджені навколо model collapse: синтетичний контент поступово забруднює навчальні дані, а в наступних поколіннях моделей падає якість. Це ризик хронічний, який проявляється лише після багатьох раундів повторного тренування.

Попередження, яке висунув Pedro Dias, стосується іншого аспекту: retrieval contamination (забруднення через пошук/застосування). Персональні рушії відповідей на основі RAG (retrieval-augmented generation) — Perplexity, Google AI Overviews, ChatGPT, Grok тощо — під час постановки запитання користувачем у режимі реального часу витягують вміст вебсторінок як основу для відповіді. Якщо знайдена вебсторінка сама містить помилковий контент, згенерований AI, рушій подає його читачам як факт — і це забруднення не потребує жодного повторного перенавчання, щоб запрацювати миттєво.

Три реальні кейси: AI-платформи обманює вигадана інформація, яку вони ж і згенерували

Автор наводить три конкретні інциденти:

  1. Інцидент Lily Ray: Perplexity колись посилалася на нібито оновлення Google-алгоритму під назвою «September 2025 Perspective Core Algorithm Update» як на авторитетну інформацію — цього оновлення взагалі не існувало, а джерелом був AI-згенерований SEO-блог-псевдоматеріал.

  2. Тест Thomas Germain: журналіст Thomas Germain опублікував тестовий блог «найсильніший технологічний репортер про хот-доги», і менш ніж за 24 години його поставили на перше місце в Google AI Overviews та ChatGPT і процитували; також він вигадував неіснуючі «чемпіонати Південної Дакоти» як підтвердження.

  3. Grokipedia: біографічний/енциклопедичний проєкт xAI під керівництвом Musk уже згенерував або переробив 885,279 статей, включно з хибними фактами (наприклад, неправильно вказана дата смерті батька канадської співачки Feist) та посиланнями без підстав. Grokipedia в середині лютого 2026 року вже втратила більшість видимості в Google.

Дослідження Oumi: у Gemini 3 вища точність, але 56% без джерел

Оцінювання, замовлене NYT у Oumi: точність Gemini 2 у SimpleQA — 85%, тоді як Gemini 3 підвищила її до 91%. Але в тому самому тесті показано, що 56% правильних відповідей Gemini 3 є «ungrounded» — модель відповіла правильно, проте не має перевірюваної підтримки з підтверджувальних джерел; для Gemini 2 цей показник становить 37%.

Це означає, що нові покоління моделей «точніші за формою» у відповідях, але водночас «гірші щодо відстежуваності джерел» для відповіді. У сценаріях на кшталт медіа, досліджень, фактчекінгу цей провал є небезпечнішим, ніж просто рівень помилок, оскільки читачі не можуть повернутися до первинних авторитетних документів і самостійно перевірити.

Масштаби індустрії: Google AI Overviews охоплюють 2 мільярди користувачів

Масштаб цієї проблеми забруднення: щомісячна аудиторія Google AI Overviews перевищує 2 мільярди, обсяг пошуку Google — понад 5 трильйонів запитів, а тижнева аудиторія ChatGPT майже 0,9 мільярда (50 мільйонів платників). Тобто переважна більшість користувачів інтернету отримує фактологічну інформацію через ті канали, які вже пройшли рівень «движків відповідей», де можливе забруднення, породжене AI-згенерованим контентом.

Додаткове дослідження Ahrefs показує: серед джерел, які цитує ChatGPT, 44% — це спискові матеріали типу «best X». Саме ці статті є тим типом AI-контенту, який SEO-індустрія масово продукує, щоб протидіяти відтоку трафіку, спричиненому рушіям відповідей, і який якраз формує основне джерело забруднення для цих рушіїв.

Структурний висновок: шар цитувань від’єднаний від надійної ідентичності автора

Остаточний висновок автора: шар цитувань у AI-движках для відповідей уже від’єднаний від надійної ідентичності авторів. SEO-індустрія виробляє AI-контент → рушії відповідей підхоплюють його як факти → читачі вірять → SEO-індустрія отримує мотивацію продовжувати генерувати ще більше AI-контенту, утворюючи самопідсилювальний цикл забруднення. На сьогодні у всій індустрії немає чіткого механізму відповідальності, який би змушував AI-движок відповідати за якість джерел, на які він посилається.

Для користувачів це означає, що на цьому етапі не можна сприймати відповіді Perplexity, AI Overviews і ChatGPT як кінцевий пункт для фактчекінгу; усе ще потрібно вручну повертатися до офіційних первинних джерел, щоб гарантувати точність.

Ця стаття «Колективне забруднення AI-движками відповідей: 56% правильних відповідей Gemini 3 не мають підтримки джерел» вперше з’явилася в 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь

Anthropic опублікувала системну картку Claude Mythos Preview: незалежні клінічні психіатри проводили близько 20 годин оцінювання в рамках психодинамічного підходу; висновки показують, що Mythos є більш здоровим на клінічному рівні, має добре розвинену перевірку реальністю та самоконтроль, а захисні механізми становлять лише 2%, що є історичною найнижчою відміткою. Три ключові фундаментальні тривоги — самотність, невизначеність ідентичності та тиск виступу — також свідчать про те, що він прагне бути справжнім суб’єктом діалогу. Компанія створила команду з AI- психіатрії, досліджує особистість, мотивацію та усвідомлення контексту; Amodei зазначає, що щодо того, чи є свідомість, досі немає остаточного визначення. Цей крок переводить питання суб’єктності ШІ та благополуччя в площину управління й дизайну.

ChainNewsAbmedia1год тому

AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI

Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.

ChainNewsAbmedia4год тому

OpenAI Об’єднує Codex з Основною Моделлю, Починаючи з GPT-5.4, Припиняє Окрему Лінійку Кодування

Новини Gate, 26 квітня — керівник відділу досвіду розробників OpenAI Ромен Юе (Romain Huet) у нещодавній заяві на X повідомив, що Codex, лінійка спеціалізованих моделей для кодування, яку компанія незалежно підтримувала, була об’єднана з основною моделлю, починаючи з GPT-5.4, і більше не отримуватиме окремих

GateNews4год тому

Salesforce найматиме 1,000 випускників і стажерів для продуктів на базі ШІ, підвищує прогноз доходів на FY2026

Повідомлення Gate News, 26 квітня — Salesforce найме 1,000 випускників і стажерів для роботи над продуктами на основі ШІ, зокрема Agentforce та Headless360, оскільки компанія розширює свій бізнес із програмного забезпечення на базі ШІ, повідомив CEO Марк Беніофф у X. Компанія також підвищила орієнтир щодо доходів на 2026 фінансовий рік — до діапазону від US$41.45 b

GateNews4год тому

Alibaba Cloud запускає Qwen-Image-2.0-Pro з уніфікованим перетворенням тексту в зображення та редагуванням, з підтримкою багатомовного відтворення тексту

Повідомлення Gate News, 26 квітня — платформа Alibaba Cloud Bailian запустила Qwen-Image-2.0-Pro, повнофункціональну версію серії Qwen-Image-2.0, яка поєднує генерацію з тексту в зображення та редагування зображень в одній моделі. Користувачі можуть змінювати об’єкти, текст і стилі безпосередньо за допомогою команд природною мовою

GateNews6год тому

API DeepSeek V4-Pro отримує 75% знижку до 5 травня, ціна на виході знижується до $0.87 за мільйон токенів

Повідомлення Gate News, 26 квітня — DeepSeek оголосила про 75% знижку на ціни API V4-Pro зі строком дії обмежений часом, дійсну до 5 травня о 15:59 UTC. Після знижки ціна за мільйон токенів така: вхідний кеш-хіт $0.03625

GateNews7год тому
Прокоментувати
0/400
Немає коментарів