
Согласно сообщению Bloomberg от 16 апреля, OpenAI, Anthropic PBC и Google начали сотрудничество через отраслевую некоммерческую организацию Frontier Model Forum, чтобы обмениваться информацией для выявления и пресечения противозаконных действий по дистилляции (выгону) противоречащих условиям предоставления сервиса моделей с применением противодействующего ИИ. OpenAI подтвердил Bloomberg, что он участвует в работе по обмену информацией об противозаконной дистилляции.
Рамки сотрудничества: механизм обмена информацией Frontier Model Forum
Frontier Model Forum был совместно основан OpenAI, Anthropic, Google и Microsoft в 2023 году. Как сообщает Bloomberg, сейчас три компании обмениваются информацией через эту организацию, стремясь идентифицировать крупномасштабные запросы с использованием противодействующих данных, отслеживать попытки дистилляции, нарушающие условия предоставления сервиса, и координировать пресечение соответствующих действий. Ранее Google публиковал пост, где указывал, что количество попыток извлечения из моделей увеличилось.
Как сообщает Bloomberg, такой формат обмена информацией соответствует уже существующим в индустрии кибербезопасности практикам, которые в течение долгого времени заключаются в обмене данными об атаках между компаниями и стратегиями противодействия для усиления защиты.
Конгрессная записка OpenAI и связанные обвинения
Согласно записке, которую OpenAI направила в специальный комитет Палаты представителей США по делам Китая (House Select Committee on China) (февраль 2026 года), OpenAI обвиняет китайскую AI-компанию DeepSeek в попытке «получить выгоду за счет технологий, разработанных OpenAI и другими американскими передовыми лабораториями», и утверждает, что она продолжает использовать технологии дистилляции данных для извлечения результатов из американских моделей, чтобы разработать новую версию чат-бота, при этом применяемые методы становятся все более сложными.
Anthropic в феврале 2026 года опубликовала заявление, в котором выявлены три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — и выдвинуты обвинения в том, что они незаконно извлекают функции модели Claude посредством противодействующей дистилляции. Ранее Anthropic в 2025 году запретила китайским компаниям использовать Claude. Bloomberg также ранее сообщал, что после того как DeepSeek выпустила модель R1 в январе 2025 года, Microsoft и OpenAI начали проверки того, не было ли незаконного извлечения данных американских моделей.
Позиция администрации Трампа и ограничения по антимонопольной комплаенс-соблюдению
Согласно опубликованным документам по политике, представители администрации Трампа заявили, что готовы содействовать обмену информацией между AI-компаниями для противодействия угрозам противодействующей дистилляции. В опубликованном президентом Трампом «Плане действий по искусственному интеллекту» прямо говорится о необходимости создания центра обмена информацией и анализа; частично цель этого — противодействовать указанным выше действиям.
Как сообщает Bloomberg, текущий охват обмена информацией о технологической дистилляции у трех компаний все еще остается ограниченным, поскольку они не уверены, какие именно сведения при действующих антимонопольных руководящих принципах можно законно обменивать; три компании также заявили о намерении расширить рамки сотрудничества после того, как правительство США четко обозначит соответствующую руководящую рамку.
Часто задаваемые вопросы
Через какую организацию OpenAI, Anthropic и Google ведут сотрудничество?
Согласно сообщению Bloomberg, три компании осуществляют обмен информацией через Frontier Model Forum — организацию, которую OpenAI, Anthropic, Google и Microsoft совместно создали в 2023 году; это отраслевая некоммерческая организация.
Что OpenAI передала в Конгресс США по вопросу AI-дистилляции?
Согласно опубликованной информации OpenAI, OpenAI направила в специальный комитет Палаты представителей США по делам Китая (февраль 2026 года) записку, в которой обвиняется DeepSeek в том, что она продолжает извлекать результаты из американских моделей, используя технологии дистилляции данных, и на основе этого разрабатывает новую версию чат-бота.
Какие из уже обнародованных действий предприняла Anthropic в связи с проблемой дистилляции у китайских AI-лабораторий?
Согласно опубликованному заявлению Anthropic, Anthropic в 2025 году запретила китайским компаниям использовать модели Claude и в феврале 2026 года выявила три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — обвиняя их в незаконном извлечении функций модели Claude посредством противодействующей дистилляции.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
OpenClaw, Hermes и SillyTavern подтверждены как поддерживаемые в рамках GLM Coding Plan
Менеджер по продукту Zhipu AI Ли объявляет OpenClaw, Hermes и SillyTavern поддерживаемыми проектами по плану GLM Coding Plan; другие инструменты будут оцениваться в каждом конкретном случае. Не делитесь учетными данными и не используйте подписки в качестве доступа к API; обратитесь в поддержку по вопросу с ошибкой 1313.
Менеджер по продукту Zhipu AI Ли объявил, что OpenClaw, Hermes и SillyTavern официально поддерживаются в рамках GLM Coding Plan, а другие инструменты будут оцениваться в каждом конкретном случае. В заметке говорится, что не следует делиться учетными данными или использовать подписки как доступ к API, и предлагается пользователям с ошибкой 1313 обратиться в поддержку.
GateNews1ч назад
Генеральный директор Google Cloud: Gemini будет обеспечивать запуск персонализированной Siri от Apple в 2026 году
Резюме: Gemini будет поддерживать персонализированную Apple Siri в 2026 году, созданную на основе моделей Apple Foundation Models и сотрудничества с Gemini; Apple тестирует чатоподобную Siri в iOS 27/macOS 27, которая запланирована к показу на WWDC 2026.
Аннотация: Google Cloud's Gemini должен обеспечивать персонализированную Apple Siri к 2026 году, сочетая Gemini с Apple's Foundation Models в рамках сотрудничества примерно на $1 миллиардов. Apple тестирует переработанную, чатоподобную Siri в iOS 27/macOS 27, с интерфейсом Dynamic Island и новыми функциями, до запланированного на WWDC 2026 анонса 8 июня.
GateNews1ч назад
Сделка SpaceX $60B Cursor подливает масла в аргументы СБФ в пользу помилования, поскольку доля $200K FTX теперь стоит $3B
Сообщение Gate News, 22 апреля — сегодня SpaceX объявила о крупном партнерстве с AI-стартапом по программированию Cursor; предусмотрен вариант приобрести компанию за $60 billion. Сделка дала Сэму Бэнкмену-Фриду (SBF), который в настоящее время находится в заключении и добивается президентского помилования, новые аргументы, поскольку она демонстрирует потенциальную восстановительную стоимость, которую, как он давно утверждал, FTX могла бы получить.
В апреле 2022 года Alameda Research, торговая фирма, основанная SBF, инвестировала $200,000 в материнскую компанию Cursor Anysphere, приобретя примерно 5% доли. Когда в ноябре 2022 года FTX рухнула, контроль над компанией взял на себя суд по делам о банкротстве. В апреле 2023 года имущество по банкротству FTX продало ту же самую 5%-ю долю за $200,000 — ровно ту же сумму, в которую Alameda инвестировала. Исходя из оценки в billion, объявленной сегодня SpaceX, эта 5%-я доля теперь стоила бы примерно billion, что означает доходность в 15,000x.
SBF давно утверждал, что FTX на самом деле не была неплатежеспособной, и что юристы по банкротству уничтожили ценность, продав активы слишком рано. В феврале 2026 года он поделился прогнозами, согласно которым FTX могла бы достичь чистой стоимости активов billion после восстановления активов. Его родители также активно добиваются помилования: в марте они появились на CNN, чтобы утверждать, что клиенты FTX получили полное возмещение. Однако кредиторы отметили, что выплаты были основаны на оценках за 2022 год, а не на текущих рыночных ценах. Президент Трамп заявил, что не помилует SBF, а рынки прогнозов в настоящее время оценивают вероятность помилования в 2026 году лишь в 5%.
GateNews1ч назад
Акции Chegg обрушились на 99%, поскольку ИИ нарушает рынок Edtech
Кратко: Chegg взлетела на фоне спроса на онлайн-образование, затем инструменты на базе ИИ нарушили ее модель, что привело к массовым увольнениям и падению ниже $2, при этом более широкие изменения, обусловленные ИИ, ударили по майнерам криптовалют и финтех-компаниям.
Аннотация: В этой статье рассматривается рост Chegg как любимца edtech в эпоху пандемии и ее последующее падение на фоне быстрого внедрения генеративного ИИ, который дает быстрые ответы и подрывает ценностное предложение Chegg. В ней описываются увольнения в 2025 году и обвал акций до уровня, близкого к исключению из листинга, а также опыт Chegg вписывается в более широкий контекст сбоя, вызванного ИИ и меняющего технологический сектор и криптоиндустрию: майнеры Bitcoin переходят к операциям на базе ИИ, а AI-ориентированные стратегии заново определяют конкурентоспособность в финтехе и за его пределами.
CryptoFrontier2ч назад
OpenAI выпустила модель с открытым исходным кодом для обнаружения и редактирования ПДн
Аннотация: Фильтр конфиденциальности OpenAI — это модель с открытым исходным кодом, выполняемая локально, которая обнаруживает и редактирует ПДн (персональные данные) в тексте. Она поддерживает большие контексты, выявляет множество категорий ПДн и предназначена для рабочих процессов с сохранением конфиденциальности, таких как подготовка данных, индексация, логирование и модерация.
Фильтр конфиденциальности OpenAI — это локально запускаемая модель с открытым исходным кодом (128k-token context), которая обнаруживает и редактирует ПДн (персональные данные) в тексте, охватывая контактные, финансовые и учетные данные для рабочих процессов по защите конфиденциальности.
GateNews2ч назад
OpenAI планирует развернуть 30 ГВт вычислительных мощностей к 2030 году
OpenAI планирует обеспечить 30 ГВт вычислительных мощностей к 2030 году, чтобы удовлетворить растущий спрос на ИИ, при этом уже завершено 8 ГВт из целевых 10 ГВт на 2025 год. Расширение сигнализирует о стратегии наращивания инфраструктуры для разработки и развертывания ИИ следующего поколения.
OpenAI намерена достичь 30 ГВт вычислительных мощностей к 2030 году, чтобы удовлетворить растущий спрос на ИИ, уже завершив 8 ГВт из целевого показателя 10 ГВт на 2025 год. Действие отражает стратегическое расширение инфраструктуры для поддержки разработки и развертывания ИИ следующего поколения.
GateNews2ч назад