После того как ИИ стал стандартным инструментом для компаний, на поверхность быстро всплывает явление, которое раньше считалось «вопросом ощущений»: LLM (крупные языковые модели) «становятся тупее». Пользователь Wisely Chen указывает, что так называемое «снижение интеллекта LLM» — не городской миф, а уже можно непрерывно отслеживать по данным, и это уже оказывает реальное влияние на рабочие процессы предприятий.
Он приводит пример из собственного опыта: 15 апреля в сервисах серии Claude от Anthropic произошло всеобъемлющее ухудшение, включая claude.ai, API и Claude Code — везде отображалось «Degraded Performance». Это не просто замедление или разовые ошибки: качество ответов явно рухнуло, а иногда возникали ситуации, когда сервис невозможно было нормально использовать, из-за чего в тот день все три его задачи разработки были сорваны.
Для индивидуальных разработчиков такие сценарии, возможно, означают лишь снижение эффективности, но для команд IT предприятий эффект многократно усиливается. Когда в команде несколько инженеров одновременно полагаются на ИИ-инструменты для кодинга, написания документов и автоматизации процессов, одно снижение уровня модели означает, что общая производительность одновременно уходит вниз, превращаясь затем в заметные потери времени и затрат.
ИИ кажется «тупее»? Данные подтверждают: «давно произошло снижение»
Wisely Chen отмечает, что разговоры вроде «GPT стал тупее», «Claude не тот, что раньше» ходят в сообществе уже давно, но долгое время не хватало объективных данных для подтверждения. Лишь в последнее время появились платформы, ведущие постоянный мониторинг качества моделей — и только тогда это явление впервые удалось количественно оценить.
В частности, StupidMeter проводит круглосуточное автоматизированное тестирование популярных моделей, включая OpenAI, Anthropic, Google и др., отслеживая показатели точности, способности к рассуждению и стабильности. В отличие от традиционных разовых benchmark-ов, такие системы ближе к корпоративному мониторингу API или доступности сервисов — они наблюдают колебания производительности модели в реальной среде использования.
Результаты данных довольно наглядны: сейчас большинство основных моделей находятся в состоянии предупреждения или деградации, и лишь немногие поддерживают нормальный режим. Это означает нестабильность качества моделей: это не проблема одного продукта, а распространённое явление во всей отрасли.
LLM «тихо» снижает интеллект, влияя на стабильность рабочих процессов с ИИ на предприятиях
Для компаний такие изменения означают, что ИИ уже вышел из роли «инструмента для повышения эффективности» и превратился в «переменную, влияющую на стабильность». Если повседневные рабочие процессы предприятия — от написания кода и code review до выпуска документов и аналитических отчётов — уже сильно зависят от LLM, то если в какой-то день у модели снижается способность к рассуждению или падает качество ответов, эти проблемы не будут проявляться точечно, как обычные баги в традиционном ПО: они одновременно проникнут во все этапы, где используется ИИ.
Ключевее всего то, что такие колебания часто трудно предсказать и сложно вовремя заметить. У большинства компаний нет механизмов постоянного мониторинга качества моделей: обычно они понимают, что проблема — в самой модели, только после того как результаты становятся аномальными или после снижения эффективности команды. В такой ситуации «снижение интеллекта» больше не просто субъективное ощущение пользователей — это системный риск, который напрямую влияет на ритм работы предприятия.
Когда ИИ становится «водой и электричеством», стабильность становится новым ключевым показателем
Wisely Chen сравнивает роль LLM с «водой и электричеством современного предприятия». Когда ИИ глубоко встраивается в повседневную операционную деятельность и становится незаменимой базовой способностью, важность стабильности растёт.
Раньше при оценке ИИ-инструментов компании в основном концентрировались на мощности модели, цене и функциональности. Но по мере того как проявляется явление «снижения интеллекта», на первый план выходит ещё один, более критичный показатель — стабильность. Когда качество модели может меняться без уведомления, компаниям приходится не просто «использовать ИИ», а начинать нести риск нового типа инфраструктуры. И ещё безнадёжнее то, что если судить только о передовых крупных языковых моделях, то, пока не решены проблемы с вычислительными мощностями, в основном может продолжаться то же самое.
Эта статья Данные раскрывают, что «Claude снижает интеллект» — это не городской миф, нестабильность ИИ-моделей становится риском для предприятий Самое раннее появление: в цепных новостях ABMedia.
Связанные статьи
Генеральный директор Google Cloud: Gemini будет обеспечивать запуск персонализированной Siri от Apple в 2026 году
Сделка SpaceX-Cursor $60B предоставляет новые доказательства в поддержку аргументов СБФ о помиловании
Акции Chegg обрушились на 99%, поскольку ИИ нарушает рынок Edtech
OpenAI выпустила модель с открытым исходным кодом для обнаружения и редактирования ПДн
OpenAI планирует развернуть 30 ГВт вычислительных мощностей к 2030 году
Агент 360 для обнаружения уязвимостей на базе ИИ находит почти 1 000 нулевых дней с эксплойтом, конкурируя с Mythos