В 2026 году в индустрии ИИ появляется новое общее понимание: качество AI-продукта определяется не самой моделью, а тем слоем вокруг модели, который называется «harness». Когда базовые модели, которые используют Claude Code, Cursor и OpenClaw, становятся всё ближе друг к другу, реальное расхождение продуктов создаёт именно дизайн harness. Технический блог Мартина Фаулера, формулировки руководителя продукта Anthropic trq212 и недавние высказывания Андрея Карпатия указывают в одном направлении: следующая арена для ИИ — это Harness Engineering.
Что такое Agent Harness
AI-агента можно разделить на две части: модель (Model) и Harness. Модель — это мозг, который отвечает за понимание языка и рассуждения. Harness — это всё остальное за пределами модели: вызовы инструментов, управление памятью, сборка контекста, персистентность состояния, обработка ошибок, защитные ограждения безопасности, планирование задач, управление жизненным циклом.
С помощью наглядной метафоры: LLM — это лошадь, а harness — это конская упряжь: поводья, седло и конструкция соединения с повозкой. Без упряжи даже самая сильная лошадь не сможет тянуть повозку. AI-агент — как раз то же самое: каким бы умным ни был модель, без хорошего harness он не сможет надёжно выполнять реальные задачи.
Акшай Пачаар в одном широко разошедшемся твите предложил другую метафору: «голый LLM похож на CPU без операционной системы — он умеет считать, но сам по себе не сделает ничего полезного». Harness — это та самая операционная система.
Почему в 2026 году Harness Engineering внезапно стало важным
Причин три:
Во-первых, возможности моделей сближаются и становятся однородными. Разрыв между GPT-5.4, Claude Opus 4.6 и Gemini 3.1 Pro в большинстве тестов на бенчмарках уже сократился до однозначных долей процентов. Когда модель перестаёт быть узким местом, естественным образом смещается фокус дифференциации продукта на уровень harness.
Во-вторых, agent выходит из лабораторных экспериментов в продакшн. В 2025 году большинство agent были демо, а в 2026 году агент должен работать в корпоративной среде — ему нужно уметь обрабатывать восстановление после сбоев, длительные запуски, многошаговые задачи, контроль прав. Всё это — работа harness.
В-третьих, LLM от природы stateless. Каждый новый session начинается с нуля, модель не помнит прошлый диалог. Harness отвечает за персистентность памяти, контекста и рабочего прогресса, чтобы агент мог продолжать работать как настоящий «коллега».
Ключевые компоненты Harness
Полный agent harness обычно включает несколько уровней:
Компонент Функция Аналогия Orchestration Loop Управляет циклом «мысль → действие → наблюдение» у агента Главный цикл операционной системы Tool Management Управляет инструментами, которыми может пользоваться агент (чтение/запись файлов, вызовы API, действия в браузере и т. п.) Драйвер Context Engineering Определяет, какую информацию отправлять в модель при каждом вызове и какую — отсекать Управление памятью State Persistence Сохраняет рабочий прогресс, историю диалогов, промежуточные результаты Жёсткий диск Error Recovery Обнаруживает сбои и автоматически повторяет или откатывает Резервное восстановление исключений Safety Guardrails Ограничивает область действий агента, предотвращая опасные операции Брандмауэр Verification Loops Заставляет агента самопроверять качество вывода Модульные тесты
Трёхслойная инженерия: Prompt, Context, Harness
Практики инженерии вокруг LLM можно разложить на три концентрических уровня:
Самый внутренний слой — Prompt Engineering: проектирование инструкций, которые отправляются модели, и то, как именно она «думает». Это был основной навык в 2023 году.
Средний слой — Context Engineering: управление тем, «что видит» модель. Определяет, какая информация подаётся в context window в какой момент, а какая должна быть обрезана. По мере того как context window расширяется до миллионов token, значимость этого слоя проявилась начиная с 2025 года.
Самый внешний слой — Harness Engineering: охватывает первые два слоя и добавляет целую базовую инфраструктуру приложения: оркестрацию инструментов, персистентность состояния, восстановление после ошибок, циклы валидации, механизмы безопасности, управление жизненным циклом. Это ключевая арена 2026 года.
Пример: почему один и тот же модель в разных продуктах может вести себя радикально по-разному
Claude Opus 4.6 в Claude Code может за короткое время — примерно за час — полностью перестроить весь кодовый репозиторий. Но если подключить ту же модель через API и навесить на неё примитивный harness, она может даже не справиться с исправлением багов, которые затрагивают несколько файлов. Разница не в модели — разница в harness.
Что сделал harness в Claude Code?
Автоматически ищет по всему репозиторию релевантные файлы, а не требует, чтобы пользователь указывал их один за другим
Перед изменениями читает содержимое файлов, после изменений запускает тесты для проверки
Если тесты не проходят, автоматически анализирует ошибку и повторяет попытку
Через MCP подключает внешние инструменты (GitHub, базы данных и т. п.)
Система памяти сохраняет пользовательские предпочтения и контекст проекта между session
Стратегия Advisor позволяет моделям разной способности работать в кооперации
Всё это — заслуга harness.
Feedforward и Feedback: два режима контроля Harness
Согласно анализу в техническом блоге Мартина Фаулера, механизмы управления harness делятся на два типа:
Feedforward (упреждающий контроль) — заранее задаёт правила до действий агента, предотвращая нежелательные выводы. Например: правила поведения в system prompt, белые списки инструментов, права на доступ к файлам.
Feedback (контроль с обратной связью) — проверяет результат после действий агента и позволяет самокоррекцию. Например: выполнить тесты, чтобы подтвердить корректность кода; сопоставить вывод с ожидаемым форматом; обнаружить галлюцинации и заново сгенерировать.
Хороший harness использует оба типа контроля: ограничивает область действий и одновременно сохраняет гибкость.
Продуктизация Harness Engineering: как это делает Anthropic
Продуктовые обновления Anthropic, которые были активно выпущены в апреле 2026 года, почти все — это продукты harness engineering:
Managed Agents — превращают инфраструктуру harness (песочницы, планирование, управление состоянием) в управляемый сервис, чтобы разработчикам нужно было только определить поведение агента
Стратегия Advisor — архитектура смешивания моделей на уровне harness, которая автоматически решает, когда нужно обращаться к более сильной модели
Версия Cowork для бизнеса — предоставляет полный harness (контроль прав, управление расходами, аналитика использования) для не технических пользователей, чтобы им не нужно было разбираться в базовых технологиях
Формулировка руководителя продукта Anthropic trq212 наиболее точна: «Prompting — это навык общения с агентом, но он опосредован harness. Моя ключевая цель — увеличить пропускную способность между человеком и агентом».
Значение для разработчиков: новая профессия и новые навыки
Harness Engineering превращается в самостоятельную инженерную область. Набор нужных навыков отличается от традиционной бэкенд-инженерии или ML-инженерии:
Понимать границы возможностей LLM и режимы отказов
Проектировать надёжные процессы вызова инструментов и обработки ошибок
Управлять context window — когда и какую информацию туда закладывать
Строить наблюдаемость — отслеживать пути принятия решений агентом и использование инструментов
Безопасный дизайн — ограничивать область действий агента, не душа его возможности
Для тех, кто учится Vibe Coding или использует инструменты ИИ для разработки, понимание концепции harness поможет эффективнее сотрудничать с AI-агентами — потому что вы будете знать, проблема в модели или в harness, и как улучшить результат, подстраивая настройки harness (а не бесконечно менять prompt).
Итог: спор об инфраструктуре следующего десятилетия
Конкуренция AI-моделей не прекратится, но предельная выгода снижается. Конкуренция на уровне harness только начинается — кто сможет построить самый надёжный, самый гибкий и самый безопасный harness, тот сможет превратить те же возможности моделей в более качественный пользовательский опыт продукта.
Это также объясняет, почему Anthropic, OpenAI и Google переходят от «компании моделей» к «платформенной компании» — они продают не только модельные API, а полноценную инфраструктуру harness. Для разработчиков понимание harness engineering — не опция, а ключевая компетенция для построения продуктов в эпоху ИИ.
Эта статья «Что такое Harness Engineering? Следующая арена для ИИ — не модель, а слой архитектуры снаружи модели» впервые появилась на Цепных новостях ABMedia.
Связанные статьи
Microsoft представляет инфраструктуру для торговли с ИИ-агентами: маркетплейс для издателей, протоколы для продавцов и инструменты для рекламы
NeoCognition привлекает $40M в посевном финансировании для ИИ-агентов обучения на рабочем месте
PicWe запускает кошелёк с AI Agent и управлением ключами на устройстве
Hugging Face Open-Source ml-intern — AI-агент для автономных ML-исследований
Google Research представляет ReasoningBank: ИИ-агенты учатся стратегиям рассуждений на успехах и неудачах
Доцент Цинхуа Дай Цифэн запускает Naive.ai, привлекает ~$300M при $800M -оценке