Барьер доверия: почему следующая миллиардная аудитория ИИ получит доступ через сеть доверия

Автор: Сакина Арсивала, исследователь a16z; источник: a16z crypto; перевод: Шоу Золотой Финанс

Открытия YouTube: Контент как геополитическое оружие

Много лет назад я был руководителем международного продукта Google Search, а затем возглавил международную экспансию YouTube, запустив продукт в 21 стране всего за 14 месяцев. Я занимался не только локализацией продукта, но и созданием локальных партнерских отношений, находя пути в сложных правовых, политических и рыночных условиях. Недавно я также отвечал за управление здоровьем сообщества Twitch (доверие и безопасность). В своей карьере я также основал две стартап-компании.

Современная сфера искусственного интеллекта (ИИ) удивительно похожа на ранние этапы роста Google и YouTube. Моя карьера позволила мне осознать один факт: глобализация — это не функция продукта, а геополитическая игра. Самый глубокий урок заключается в том, что продвижение каналов никогда не является чисто технической проблемой. Рост зависит от местных партнеров, культурных посредников и заслуживающих доверия лидеров мнений, которые строят мосты между глобальными платформами и местными пользователями.

Я был свидетелем ситуации с блокировкой авторских прав GEMA в Германии: одна музыкальная организация почти исключила целую страну из европейского рекламного плана YouTube. Я пережил скандал с арестом за оскорбление короля в Таиланде: как представитель YouTube я столкнулся с риском ареста из-за контента, признанного оскорбительным, и даже не мог проехать через страну. Я видел, как Пакистан отключил интернет по всей стране, чтобы заблокировать одно видео. Я также помню, как в нашем офисе в Индии произошел физический нападение из-за конфликта между глобальными алгоритмами и местными религиозными запретами.

С тем, с чем нам действительно нужно справляться, никогда не было просто политических или инфраструктурных вопросов, а именно барьеры доверия.

На каждом рынке кто-то должен сначала понести затраты, чтобы прояснить, какой контент безопасен, приемлем и ценен, чтобы пользователи начали участвовать. Эти затраты будут накапливаться и со временем сформируют налог доверия: его несут немногие, а затем разделяют все.

Сегодня аналогичные конфликты возникают в сфере искусственного интеллекта, но ситуация более серьезная, эволюция более быстрая и последствия более заметные. Федеральное правительство США и Anthropic недавно оказались в тупике, вызвав общественные дискуссии; OpenAI сталкивается с все большим числом проверок из-за своих отношений с государственным сектором. Мы свидетели перемен: принятие пользователями больше не зависит только от полезности, идеологическое влияние становится все более глубоким. В такой среде доверие крайне хрупкое, и даже кажущееся незначительным разрушение доверия может вызвать массовый и быстрый отток пользователей.

Google увеличивает инвестиции в свою стратегию глубокого доверия, используя знакомство пользователей с экосистемой Workspace и поиска для выхода на рынок, но глобальный ландшафт становится все более расколотым. Строгие регуляторные красные линии Европейского Союза, жесткая конкуренция в развитии ИИ в Китае и усиливающийся ИИ-национализм заставляют весь мир оставаться в состоянии высокой настороженности.

Уроки 2026 года очевидны: доверие институтов и культурное признание теперь неразрывно связаны с самим продуктом. Без доверия в качестве фундамента невозможно построить интеллектуальную операционную систему.

Это и есть суверенные барьеры — структурные границы, где глобальный ИИ сталкивается с местным контролем. С точки зрения продукта это проявляется в более прямой форме: барьеры доверия.

Все глобальные системы ИИ в конечном итоге столкнутся с этой стеной. На этой критической точке принятие пользователями больше не зависит от технологических возможностей, а от того, доверяют ли пользователи, учреждения и правительство ему в своем контексте.

Интернет когда-то был безграничным. Искусственный интеллект таковым не будет.

Закат эпохи исследователей

Первые миллиарды пользователей ИИ были исследователями и технологическими оптимистами. Но эпоха исследователей подошла к концу. В последние три года мы находимся в эре инженерии подсказок и цифровой алхимии, люди открывают ChatGPT, Claude и другие популярные приложения, как будто они идут в цифровой храм, чтобы своими глазами увидеть чудеса генеративного интеллекта. В этой эпохе единственным важным показателем является способность модели: Кто занимает первое место в последних бенчмарках? Чьи параметры самые большие?

Но в 2026 году костер эпохи исследователей начинает гаснуть. Мы больше не создаем игрушки для любопытных, а переходим к интеллектуальным операционным системам — тем незаметным и повсеместным базовым каналам, которые обеспечивают повседневную работу индивидуальных предпринимателей в Сан-Паулу, Бразилия, и работников общественного здравоохранения в Джакарте, Индонезия.

Эти пользователи не исследователи, а практичные потребители. Они не хотят общаться с «призраком» в машине, а хотят инструмент, который поможет им решить множество препятствий в реальной жизни. Это и есть настоящий момент преодоления разрыва для следующей миллиарды пользователей. Именно на этой еще не полностью освоенной границе мечта Кремниевой долины о глобальном API сталкивается с самой жестокой реальностью этого времени: суверенные барьеры.

Ключевое изменение заключается в том, что широкое распространение ИИ больше не зависит от возможностей модели, а зависит отраспространения и доверия. Передовые лаборатории будут продолжать улучшать производительность моделей, но приход следующей миллиарды пользователей не произойдет из-за того, что какая-то модель получила более высокий балл в бенчмарке, а потому, что ИИ достигнет их через учреждения, создателей и сообщества, которым они уже доверяют.

Реальность 2026 года: ИИ становится вопросом национальной инфраструктуры

В 2026 году основной проблемой в отрасли станет не то, как сделать модели более умными, а как получить доступ к моделям. Суверенные барьеры — это границы, на которых общая интеллектуальная способность встречается с национальной идентичностью. Глядя на мир, этот барьер уже начинает проявляться: требования к локализации данных, национальные планы вычислительных мощностей ИИ, а также проекты моделей, возглавляемые правительствами в Индии, ОАЭ, Европе и других странах. Первоначальная политика облачной инфраструктуры быстро превращается в политику интеллектуального суверенитета. В рамках этой политики страны отказываются становиться «данными-колониями» и требуют, чтобы интеллектуальные системы, обслуживающие их граждан, работали в рамках их суверенных хранилищ данных, передавая местную культуру и уважая национальные границы.

Когда вы видите генеральных директоров Google (Сундар Пичаи), OpenAI (Сэм Альтман), Anthropic (Дарио Амодеи), DeepMind (Демис Хасабис), которые выступают на Индийском саммите по влиянию ИИ в 2026 году вместе с премьер-министром Индии Нарендрой Моди, вы видите реальное проявление суверенных барьеров. Видение M.A.N.A.V., предложенное премьер-министром Моди (этические системы, подотчетное управление, национальный суверенитет, инклюзивный ИИ, надежные системы), посылает четкий сигнал: если передовые лаборатории попытаются напрямую выйти на потребителей, они будут в конечном итоге вытеснены регуляторами. И доверие — это единственная валюта для преодоления этих границ.


Проблема ослабления сетевых эффектов и почему это заставляет нас искать новые стратегии

В отличие от социальных платформ, где каждая новая пользовательская учетная запись повышает ценность для всех остальных, ценность искусственного интеллекта во многом локализована. Моя первая тысяча подсказок не сделает систему более ценной для вас. Данные могут улучшить модель, но пользовательский опыт всегда остается персонализированным, а не социальным. ИИ — это личный инструмент, который может быть эмоциональным, но в своей основе он является практическим инструментом.

Это создает структурную проблему: ИИ не может полагаться на эффекты сетевого роста, на которых основаны платформы предыдущего поколения. В условиях отсутствия изначальных социальных графов отрасли приходится застревать в цикле высоких затрат, постоянно преследуя ранних пользователей, активных игроков и технологических элит. Эта стратегия работала в эпоху исследователей, но не может быть масштабирована для охвата следующих двух миллиардов пользователей.

Что более важно, эта модель полностью потерпит неудачу перед суверенными барьерами. Поскольку когда сетевые эффекты слабы, доверие не возникает спонтанно, а должно быть привлечено извне.

Преобразование: от сетевых эффектов к эффектам доверия

Если искусственный интеллект не может полагаться на сетевые эффекты для своего распространения, он должен опираться на другую силу: сеть доверия. Это ключевое изменение:

От получения пользователей к предоставлению возможностей посредникам

YouTube смог масштабироваться именно благодаря использованию уже существующих человеческих сетей доверия. ИИ должен делать то же самое. Вместо того чтобы пытаться установить прямую связь с миллиардами пользователей, стратегией победы должно быть:

  • Предоставление возможностей тем, кто уже имеет отношения с пользователями;

  • Использование их уже накопленного доверия;

  • Распространение интеллектуальных возможностей через эти каналы.

Почему это критично

В мире, формируемом суверенными барьерами:

  • Каналы распространения ограничены;

  • Модель непосредственной работы с пользователями слаба;

  • Доверие локализовано, а не глобализовано.

Без мощных сетевых эффектов искусственный интеллект не сможет масштабироваться силой, он должен проникать через доверие. Искусственный интеллект не имеет сетевых эффектов, у него есть эффекты доверия.

Решение: приход эпохи посредников

Как YouTube смог утвердиться на международном рынке? Не благодаря лучшему плееру и не просто локализации текстов интерфейса. Ключ к победе заключался в том, чтобы стать предпочтительной платформой для уже установленной локальной сети доверия. В каждом рынке начальная точка принятия пользователями не сама YouTube, а точки идентичности — те, кто уже владеет культурным дискурсом:

  • Фанатские страницы Болливуда собирают редкие фрагменты фильмов с Шахрукхом Ханом для диаспоры в Дубае.

  • Американские фанаты анимации создают глубокую экосистему контента, которую мейнстримные медиа не охватывают.

  • Местные комики, учителя и создатели смешанных видео преобразуют глобальный контент в формы, соответствующие культурному восприятию.

Эти создатели не просто загружают видео, они интерпретируют интернет для своей аудитории, выступая в роли доверительных посредников, создавая мосты между зарубежными платформами и местными пользователями. Успех YouTube заключался в том, что он стал невидимой инфраструктурой, поддерживающей эти точки идентичности.

Игнорируемая ключевая логика: модель непосредственной работы с потребителями сталкивается с суверенными барьерами

Сегодня большинство компаний ИИ все еще придерживаются мышления непосредственной работы с потребителями: создание лучших моделей → представление в виде интерфейса чата → прямое получение пользователей.

Эта модель эффективна в краткосрочной перспективе, но не может быть долгосрочной. Потому что в условиях высоких трений пользователи не принимают новые технологии напрямую, а принимают технологии через тех, кому они доверяют.

Глобальная экспансия YouTube не зависела от убеждения миллиардов пользователей по одному, а предоставляла возможности тем, кто уже завоевал доверие аудитории. Это и есть истинное значение невидимой инфраструктуры: вы не обладаете отношениями с пользователями, вы поддерживаете эти отношения. А на уровне масштабирования такая модель обладает более мощным защитным механизмом.

Переход от чата к интеллектуальным агентам: предоставление возможностей доверительным посредникам

Это и есть ключевой момент перехода от интерфейса чата к интеллектуальным агентам. Чат — это инструмент для отдельных лиц, а интеллектуальные агенты — это рычаги для посредников. Если применить концепцию Антропика (Anthropic), высказанную Ами Вора: «Создавать продукты для самых уставших людей», то в многих рынках такими людьми являются посредники доверия:

  • Образователи, адаптирующие зарубежные концепции

  • Предприниматели, работающие с местной бюрократией

  • Лидеры сообществ, справляющиеся с избытком информации

Путь к успеху заключается в решении их проблемы задержки доверия — разрыва между глобальными интеллектуальными способностями и локальными практическими сценариями. Это требует внедрения реалистичной системы поддержки интеллектуальных агентов:

  • Для образователей: Sora / GPT-5.2 перекраивает курсы — заменяет аналогии с американским футболом на крикет, сохраняя основное значение и соответствуя местной культуре.

  • Для индивидуальных предпринимателей: интеллектуальные агенты могут не только интерпретировать налоговые формы Сингапура, но и заполнять и отправлять их через локальное API.

  • Для лидеров сообществ: добавление функции контекстной памяти в WhatsApp — извлечение структурированных действий из десяти тысяч сообщений, сохранение актуальной информации и поддержание норм сообщества.

Ключ к жизнеспособной модели: решение проблемы последней мили задержки доверия

Чтобы понять, почему эта модель может масштабироваться, необходимо осознать задержку доверия. Во многих частях мира узким местом является не канал доступа к технологиям, а время, риск и неопределенность, необходимые для установления доверия. Популяризация технологий не зависит от рекламы, а зависит от рекомендаций.

Большинство компаний ИИ совершают ошибку, пытаясь сосредоточиться на доверии через бренд, распространение или шлифовку продукта, но доверие не может масштабироваться таким образом.

Самый быстрый путь — передать налог доверия тем, кто уже несет эти затраты — местным создателям, образователям и операторам. Они уже испытали на аудитории, поняли, что эффективно, что неэффективно и что действительно важно в местных сценариях, взяв на себя риски.

Предоставляя возможности этим доверительным посредникам:

  • Стоимость привлечения пользователей стремится к нулю: распределение опирается на существующие сети доверия;

  • Ценность жизненного цикла пользователей увеличивается: практические функции соответствуют местным потребностям, а не универсальны;

  • Скорость распространения возрастает: доверие передается напрямую, без необходимости накапливать его с нуля.

Компании получат глобальную команду продаж без дополнительных затрат, чья надежность, эффективность и глубина укоренения намного превосходят любые централизованные стратегии продвижения. Вы больше не создаете продукты для пользователей, а предоставляете рычаги тем, кому пользователи уже доверяют.

Это и есть путь глобальной экспансии YouTube, и единственный способ преодолеть суверенные барьеры в искусственном интеллекте.

Суверенные хранилища данных: геополитическая защита

Технологический оптимизм, продвигаемый Марком Андрессеном, в конечном итоге не заключается в противостоянии регулированию, а в его продуктовой реализации. Конкурируя с китайскими DeepSeek и Kimi, победа не достигается игнорированием границ, а контролем хранилищ данных.

Что такое суверенные хранилища данных? Это локализованные экземпляры модели, которые работают в рамках цифровой публичной инфраструктуры (DPI) страны.

  • Геополитическая защита: предоставляя странам, таким как Индия и Бразилия, цифровой суверенитет над моделями, весами и данными, мы коренным образом меняем баланс власти. Интеллектуальные способности больше не контролируются зарубежными платформами, а управляются на уровне страны. Это не прямое «блокирование» внешних соперников, а значительное повышение их стоимости влияния, снижение зависимости от них и уменьшение рисков контроля, извлечения данных или одностороннего вмешательства.

  • Точки идентичности: глубокая привязка моделей к местной культуре и юридическим реалиям, создающая защиту, которую не может преодолеть общий искусственный интеллект.

  • Циклы обратной связи: решение таких местных деталей, как разрешения на налогообложение в Малайзии, не является отвлечением, а наоборот — это ускоритель моделей. Это обеспечивает культурную гибкость основных моделей, позволяя им всегда оставаться на уровне мировых интеллектуальных стандартов.

В этом существует реальное противоречие. Видение искусственного интеллекта заключается в достижении общего интеллекта, но тенденция к суверенизации толкает всю экосистему к фрагментации. Если каждая страна построит свою технологическую стек, мы столкнемся с рисками несовместимости систем, разрозненности стандартов безопасности и дублирования ресурсов. Передовые лаборатории сталкиваются с вызовом не только улучшения масштаба интеллекта, но и разработки архитектуры, которая сможет обеспечить локальный контроль, не ослабляя глобальные кооперативные преимущества.

Три структурные изменения эпохи посредников

1. Распространение искусственного интеллекта будет происходить через существующие сети доверия

Искусственный интеллект не сможет масштабироваться через независимые приложения, а будет встроен в платформы мгновенных сообщений, рабочие процессы создателей, образовательные системы и инфраструктуру малых и средних предприятий — потому что доверие уже установлено в этих сценариях. В условиях отсутствия сильных сетевых эффектов распределение должно опираться на существующие межличностные сети.

2. Национальная инфраструктура ИИ станет стандартом

Правительства стран будут требовать, чтобы ключевые системы ИИ проходили локализацию моделей, строили суверенные вычислительные мощности или подчинялись регуляторным проверкам, что ускорит внедрение архитектуры суверенных хранилищ данных.

3. Экономика создателей станет экономикой интеллектуальных агентов

Создатели больше не будут просто производить контент, они будут развертывать интеллектуальные агенты для выполнения реальных задач в своих сообществах. Эти интеллектуальные агенты станут продолжением доверительных личностей, унаследуют их репутацию и будут передавать интеллектуальные способности через сеть доверия.

Конечно, существует и другой возможный сценарий будущего: появление одного доминирующего помощника, глубоко встроенного в операционную систему, браузеры и устройства, который напрямую соединит пользователей с моделями, полностью обойдя посредников. Если это произойдет, уровень доверия будет непосредственно встроен в этот помощник.

Но исторический опыт указывает на более многообразную структуру. Даже самые доминирующие платформы — от мобильных операционных систем до социальных сетей — в конечном итоге добиваются роста через экосистемы. Интеллект может быть универсальным, но доверие всегда локализовано. Независимо от того, какая архитектура в конечном итоге победит, основная проблема не изменится: популяризация ИИ больше не зависит от моделей, а от распространения и доверия.

Заключение: Нишевые рынки — это настоящие глобальные рынки

Наиболее распространенная ошибка эпохи исследователей заключается в том, что искусственный интеллект воспринимается как стандартизированный товар — единый глобальный API, который ведет себя совершенно одинаково в конференц-зале в Манхэттене и в деревне в Карнатаке. Суверенные барьеры раскрывают более жестокую правду: интеллект может быть универсальным, но его популяризация — нет.

Государственные и местные учреждения не хотят черного ящика внешней системы, они хотят контроля, способности адаптироваться к сценариям и права формировать интеллект в своих границах. Им нужны не готовые приложения, а базовые каналы — инфраструктура, системы безопасности и вычислительные мощности, позволяющие гражданам строить самостоятельно.

Логика роста 2026 года больше не состоит в поиске универсального пользовательского опыта, а в гибкости продукта — в том, чтобы интеллект адаптировался к местным сценам, регуляциям и культуре, не теряя своих основных возможностей. Если мы продолжим напрямую стремиться к глобальным потребителям, мы всегда будем лишь внешним слоем — хрупким, заменяемым и снова подвергнемся тем же ударам, которые я пережил на YouTube.

Но когда мы начнем предоставлять возможности посредникам, модель изменится: от интерфейсов чата к интеллектуальным агентам, от убеждения пользователей к предоставлению возможностей доверительным посредникам, от противостояния регулированию к превращению регулирования в защиту.

Масштабирование искусственного интеллекта зависит не от модели, а от доверия.

Победителем в гонке искусственного интеллекта станет не компания с самым умным моделью, а та, которая сможет в десять раз повысить возможности местных героев — учителей, бухгалтеров, лидеров сообществ. В конце концов, интеллект передается в системах, а популяризация происходит среди людей.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить