Что такое Harness Engineering? Следующее поле битвы ИИ — не модели, а слой архитектуры снаружи моделей

В 2026 году в индустрии ИИ появляется новое общее понимание: качество AI-продукта определяется не самой моделью, а тем слоем вокруг модели, который называется «harness». Когда базовые модели, которые используют Claude Code, Cursor и OpenClaw, становятся всё ближе друг к другу, реальное расхождение продуктов создаёт именно дизайн harness. Технический блог Мартина Фаулера, формулировки руководителя продукта Anthropic trq212 и недавние высказывания Андрея Карпатия указывают в одном направлении: следующая арена для ИИ — это Harness Engineering.

Что такое Agent Harness

AI-агента можно разделить на две части: модель (Model) и Harness. Модель — это мозг, который отвечает за понимание языка и рассуждения. Harness — это всё остальное за пределами модели: вызовы инструментов, управление памятью, сборка контекста, персистентность состояния, обработка ошибок, защитные ограждения безопасности, планирование задач, управление жизненным циклом.

С помощью наглядной метафоры: LLM — это лошадь, а harness — это конская упряжь: поводья, седло и конструкция соединения с повозкой. Без упряжи даже самая сильная лошадь не сможет тянуть повозку. AI-агент — как раз то же самое: каким бы умным ни был модель, без хорошего harness он не сможет надёжно выполнять реальные задачи.

Акшай Пачаар в одном широко разошедшемся твите предложил другую метафору: «голый LLM похож на CPU без операционной системы — он умеет считать, но сам по себе не сделает ничего полезного». Harness — это та самая операционная система.

Почему в 2026 году Harness Engineering внезапно стало важным

Причин три:

Во-первых, возможности моделей сближаются и становятся однородными. Разрыв между GPT-5.4, Claude Opus 4.6 и Gemini 3.1 Pro в большинстве тестов на бенчмарках уже сократился до однозначных долей процентов. Когда модель перестаёт быть узким местом, естественным образом смещается фокус дифференциации продукта на уровень harness.

Во-вторых, agent выходит из лабораторных экспериментов в продакшн. В 2025 году большинство agent были демо, а в 2026 году агент должен работать в корпоративной среде — ему нужно уметь обрабатывать восстановление после сбоев, длительные запуски, многошаговые задачи, контроль прав. Всё это — работа harness.

В-третьих, LLM от природы stateless. Каждый новый session начинается с нуля, модель не помнит прошлый диалог. Harness отвечает за персистентность памяти, контекста и рабочего прогресса, чтобы агент мог продолжать работать как настоящий «коллега».

Ключевые компоненты Harness

Полный agent harness обычно включает несколько уровней:

Компонент Функция Аналогия Orchestration Loop Управляет циклом «мысль → действие → наблюдение» у агента Главный цикл операционной системы Tool Management Управляет инструментами, которыми может пользоваться агент (чтение/запись файлов, вызовы API, действия в браузере и т. п.) Драйвер Context Engineering Определяет, какую информацию отправлять в модель при каждом вызове и какую — отсекать Управление памятью State Persistence Сохраняет рабочий прогресс, историю диалогов, промежуточные результаты Жёсткий диск Error Recovery Обнаруживает сбои и автоматически повторяет или откатывает Резервное восстановление исключений Safety Guardrails Ограничивает область действий агента, предотвращая опасные операции Брандмауэр Verification Loops Заставляет агента самопроверять качество вывода Модульные тесты

Трёхслойная инженерия: Prompt, Context, Harness

Практики инженерии вокруг LLM можно разложить на три концентрических уровня:

Самый внутренний слой — Prompt Engineering: проектирование инструкций, которые отправляются модели, и то, как именно она «думает». Это был основной навык в 2023 году.

Средний слой — Context Engineering: управление тем, «что видит» модель. Определяет, какая информация подаётся в context window в какой момент, а какая должна быть обрезана. По мере того как context window расширяется до миллионов token, значимость этого слоя проявилась начиная с 2025 года.

Самый внешний слой — Harness Engineering: охватывает первые два слоя и добавляет целую базовую инфраструктуру приложения: оркестрацию инструментов, персистентность состояния, восстановление после ошибок, циклы валидации, механизмы безопасности, управление жизненным циклом. Это ключевая арена 2026 года.

Пример: почему один и тот же модель в разных продуктах может вести себя радикально по-разному

Claude Opus 4.6 в Claude Code может за короткое время — примерно за час — полностью перестроить весь кодовый репозиторий. Но если подключить ту же модель через API и навесить на неё примитивный harness, она может даже не справиться с исправлением багов, которые затрагивают несколько файлов. Разница не в модели — разница в harness.

Что сделал harness в Claude Code?

Автоматически ищет по всему репозиторию релевантные файлы, а не требует, чтобы пользователь указывал их один за другим

Перед изменениями читает содержимое файлов, после изменений запускает тесты для проверки

Если тесты не проходят, автоматически анализирует ошибку и повторяет попытку

Через MCP подключает внешние инструменты (GitHub, базы данных и т. п.)

Система памяти сохраняет пользовательские предпочтения и контекст проекта между session

Стратегия Advisor позволяет моделям разной способности работать в кооперации

Всё это — заслуга harness.

Feedforward и Feedback: два режима контроля Harness

Согласно анализу в техническом блоге Мартина Фаулера, механизмы управления harness делятся на два типа:

Feedforward (упреждающий контроль) — заранее задаёт правила до действий агента, предотвращая нежелательные выводы. Например: правила поведения в system prompt, белые списки инструментов, права на доступ к файлам.

Feedback (контроль с обратной связью) — проверяет результат после действий агента и позволяет самокоррекцию. Например: выполнить тесты, чтобы подтвердить корректность кода; сопоставить вывод с ожидаемым форматом; обнаружить галлюцинации и заново сгенерировать.

Хороший harness использует оба типа контроля: ограничивает область действий и одновременно сохраняет гибкость.

Продуктизация Harness Engineering: как это делает Anthropic

Продуктовые обновления Anthropic, которые были активно выпущены в апреле 2026 года, почти все — это продукты harness engineering:

Managed Agents — превращают инфраструктуру harness (песочницы, планирование, управление состоянием) в управляемый сервис, чтобы разработчикам нужно было только определить поведение агента

Стратегия Advisor — архитектура смешивания моделей на уровне harness, которая автоматически решает, когда нужно обращаться к более сильной модели

Версия Cowork для бизнеса — предоставляет полный harness (контроль прав, управление расходами, аналитика использования) для не технических пользователей, чтобы им не нужно было разбираться в базовых технологиях

Формулировка руководителя продукта Anthropic trq212 наиболее точна: «Prompting — это навык общения с агентом, но он опосредован harness. Моя ключевая цель — увеличить пропускную способность между человеком и агентом».

Значение для разработчиков: новая профессия и новые навыки

Harness Engineering превращается в самостоятельную инженерную область. Набор нужных навыков отличается от традиционной бэкенд-инженерии или ML-инженерии:

Понимать границы возможностей LLM и режимы отказов

Проектировать надёжные процессы вызова инструментов и обработки ошибок

Управлять context window — когда и какую информацию туда закладывать

Строить наблюдаемость — отслеживать пути принятия решений агентом и использование инструментов

Безопасный дизайн — ограничивать область действий агента, не душа его возможности

Для тех, кто учится Vibe Coding или использует инструменты ИИ для разработки, понимание концепции harness поможет эффективнее сотрудничать с AI-агентами — потому что вы будете знать, проблема в модели или в harness, и как улучшить результат, подстраивая настройки harness (а не бесконечно менять prompt).

Итог: спор об инфраструктуре следующего десятилетия

Конкуренция AI-моделей не прекратится, но предельная выгода снижается. Конкуренция на уровне harness только начинается — кто сможет построить самый надёжный, самый гибкий и самый безопасный harness, тот сможет превратить те же возможности моделей в более качественный пользовательский опыт продукта.

Это также объясняет, почему Anthropic, OpenAI и Google переходят от «компании моделей» к «платформенной компании» — они продают не только модельные API, а полноценную инфраструктуру harness. Для разработчиков понимание harness engineering — не опция, а ключевая компетенция для построения продуктов в эпоху ИИ.

Эта статья «Что такое Harness Engineering? Следующая арена для ИИ — не модель, а слой архитектуры снаружи модели» впервые появилась на Цепных новостях ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Microsoft представляет инфраструктуру для торговли с ИИ-агентами: маркетплейс для издателей, протоколы для продавцов и инструменты для рекламы

Сообщение Gate News, 22 апреля — вице-президент Microsoft по монетизации ИИ Тим Фрэнк объявил о комплексе обновлений коммерческой инфраструктуры, рассчитанных на эпоху «агентского веба», чтобы издатели, продавцы и рекламодатели оставались обнаруживаемыми и доступными для торговли, пока ИИ-агенты принимают решения о покупке от имени пользователей на

GateNews47м назад

NeoCognition привлекает $40M в посевном финансировании для ИИ-агентов обучения на рабочем месте

Сообщение Gate News, 22 апреля — AI-исследовательская лаборатория NeoCognition объявила о завершении посевного раунда на $40 миллионов долларов, выйдя из режима скрытности. Основанная доцентом Университета штата Огайо Ю Су вместе с Сян Дэн и Ю Гу, компания базируется в Пало-Альто, штат Калифорния. Раунд w

GateNews1ч назад

PicWe запускает кошелёк с AI Agent и управлением ключами на устройстве

PicWe объявляет о публичной бета-версии PicWe Wallet — кошелька с поддержкой AI-агентов, работающего на устройстве и не требующего recovery phrase (фраз восстановления). Он поддерживает мультичейн-активы, свопы, автоматизацию, доступную через AI, и нацелен на объединение инфраструктуры RWA. PicWe запустила публичную бета-версию PicWe Wallet — кошелька, включающего AI Agent и хранящего ключи на устройстве, который исключает recovery phrase и оставляет критически важные операции локальными. Бета поддерживает управление активами в нескольких сетях, свопы и комиссии на основе стейблкоинов, одновременно позволяя программируемые взаимодействия с AI. Более широкие инициативы PicWe позиционируют платформу как единую инфраструктуру для реальных активов, обеспечивая выпуск, обращение, расчёты, платежи через границы, токенизацию и координацию цепочки поставок для корпоративных сценариев использования.

GateNews1ч назад

Hugging Face Open-Source ml-intern — AI-агент для автономных ML-исследований

С открытым исходным кодом: ml-intern от Hugging Face — автономный агент для ML-исследований, который читает статьи, подбирает данные, обучает, оценивает и итеративно улучшает результаты в областях науки, медицины и математики. Аннотация: ml-intern от Hugging Face — это автономный агент для ML-исследований с открытым исходным кодом, который читает статьи, формирует датасеты, обучается на локальных или облачных GPU, оценивает результаты и итеративно улучшает решения. Построен на smolagents с интерфейсом CLI и веб-интерфейсом: он ориентируется в arXiv/HF Papers, HF Hub и HF Jobs. Демонстрации охватывают науку, медицину и математику, демонстрируя сквозную автоматизацию и рост производительности.

GateNews1ч назад

Google Research представляет ReasoningBank: ИИ-агенты учатся стратегиям рассуждений на успехах и неудачах

Сообщение Gate News, 22 апреля — Google Research выпустила ReasoningBank, фреймворк агентной памяти, который позволяет агентам, управляемым большими языковыми моделями, непрерывно учиться после развертывания. Фреймворк извлекает универсальные стратегии рассуждений как из успешных, так и из неудачных опытов выполнения задач, сохраняя

GateNews2ч назад

Доцент Цинхуа Дай Цифэн запускает Naive.ai, привлекает ~$300M при $800M -оценке

Сообщение Gate News, 22 апреля — Дай Цифэн, доцент кафедры электронной инженерии Пекинского университета Цинхуа, основал Naive.ai — компанию, ориентированную на постобучение открытых моделей с открытым исходным кодом и AI-агентов. Стартап привлел примерно $300 млн при оценке в $80

GateNews3ч назад
комментарий
0/400
Нет комментариев