
За повідомленням Bloomberg від 16 квітня, OpenAI, Anthropic PBC і Google розпочали співпрацю через галузеву неприбуткову організацію Frontier Model Forum, щоб ділитися інформацією для виявлення та зупинення протиправної практики дистиляції (distillation) проти умов надання сервісу. OpenAI підтвердив Bloomberg, що бере участь у роботі з обміну інформацією щодо протиправної дистиляції.
Рамки співпраці: механізм обміну інформацією Frontier Model Forum
Frontier Model Forum був заснований у 2023 році OpenAI, Anthropic, Google та Microsoft спільно. За повідомленням Bloomberg, наразі ці три компанії обмінюються інформацією через цю організацію з метою ідентифікувати запити проти масштабного обсягу даних (adversarial data requests), відстежувати спроби дистиляції, що порушують умови надання сервісу, і координувати припинення відповідних дій. Google публікував допис, у якому зазначив, що виявив зростання спроб вилучення (model extraction).
За повідомленням Bloomberg, такі моделі обміну інформацією відповідають усталеним практикам у сфері кібербезпеки, яка протягом тривалого часу посилювала захист, обмінюючись між компаніями даними про атаки та стратегіями опонентів.
Парламентський меморандум OpenAI та пов’язані звинувачення
Згідно з меморандумом, поданим OpenAI до Спеціального комітету Палати представників США з питань Китаю (House Select Committee on China) (лютий 2026 року), OpenAI звинувачує китайські AI-компанії DeepSeek у спробі «зайти в ролі пасажира (ride along)» на розроблених OpenAI та іншими американськими передовими лабораторіями технологіях, а також стверджує, що вона й надалі використовує технології дистиляції даних, щоб витягати результати з американських моделей для розробки нової версії чат-бота, і що застосовувані методи стають дедалі більш складними.
Anthropic у лютому 2026 року опублікував заяву, в якій ідентифікував три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — і висунув звинувачення, що вони незаконно витягують функціональність моделей Claude через протиправну дистиляцію. Раніше Anthropic у 2025 році заборонив китайським компаніям використовувати Claude. Bloomberg також повідомляв, що після того, як DeepSeek у січні 2025 року оприлюднив модель міркувань R1, Microsoft і OpenAI розпочали розслідування щодо того, чи DeepSeek незаконно вилучав дані моделей США.
Позиція адміністрації Трампа та обмеження комплаєнсу щодо антимонопольного законодавства
Згідно з оприлюдненими документами з політики, посадовці адміністрації Трампа заявили, що готові сприяти обміну інформацією між AI-компаніями, щоб протидіяти загрозам протиправної дистиляції. У《Плані дій щодо штучного інтелекту》, оприлюдненому президентом Трампом, прямо закликається створити центр обміну інформацією та аналітики; частина цілей — саме для протидії зазначеним діям.
За повідомленням Bloomberg, нинішній обсяг обміну інформацією про технічну дистиляцію між трьома компаніями залишається обмеженим через те, що вони не впевнені, які саме відомості можуть бути законно обмінені за чинними антимонопольними рекомендаціями; три компанії заявили, що мають намір розширити співпрацю після того, як у США уряд чітко визначить відповідні рамки керівництва.
Поширені запитання
OpenAI, Anthropic і Google — через яку організацію вони співпрацюють?
За повідомленням Bloomberg, три компанії здійснюють обмін інформацією через Frontier Model Forum — організацію, яку OpenAI, Anthropic, Google та Microsoft спільно заснували у 2023 році як галузеву неприбуткову організацію.
Що OpenAI подала до Конгресу США щодо проблеми AI-дистиляції?
Згідно з оприлюдненими даними OpenAI, OpenAI подала до Спеціального комітету Палати представників США з питань Китаю меморандум (лютий 2026 року), у якому звинуватила DeepSeek у тому, що вона на постійній основі витягує результати з американських моделей, використовуючи технології дистиляції даних, і розробляє на цій основі нову версію чат-бота.
Які оприлюднені дії зробила Anthropic у зв’язку з проблемою дистиляції китайських AI-лабораторій?
Згідно з оприлюдненою заявою Anthropic, Anthropic у 2025 році заборонила китайським компаніям використовувати модель Claude, а в лютому 2026 року виявила три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — та звинуватила їх у незаконному витягу од функціональності моделі Claude через протиправну дистиляцію.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
DeepSeek Зрізає Ціни на Вхідний Кеш до 1/10 Від Ціни Запуску; V4-Pro Падає до 0,025 Юаня за Мільйон Токенів
Повідомлення Gate News, 26 квітня — DeepSeek знизив ціни на вхідний кеш у всій лінійці своїх моделей до однієї десятої від цін запуску, починаючи з негайно. Модель V4-Pro доступна зі знижкою 2,5x на обмежений час, а акція діє до 5 травня 2026 року, 11:59 PM UTC+8.
Після обох з
GateNews6год тому
OpenAI Рекрутує найкращі таланти з корпоративного софту, оскільки агенти на передньому краї змінюють індустрію
Повідомлення Gate News, 26 квітня — OpenAI та Anthropic вербують старших керівників і спеціалізованих інженерів із провідних корпоративних софтверних компаній, зокрема Salesforce, Snowflake, Datadog і Palantir. Деніз Дрессер, колишня CEO Slack у складі Salesforce, приєдналася до OpenAI на посаду головної комерційної посадової особи (chief revenue of
GateNews6год тому
Baidu Qianfan запустила підтримку Day 0 для DeepSeek-V4 із API-сервісами
Повідомлення Gate News, 25 квітня — Попередня версія DeepSeek-V4 вийшла в ефір і була оприлюднена з відкритим кодом 25 квітня, а платформа Baidu Qianfan у межах Baidu Intelligent Cloud забезпечує адаптацію сервісу Day 0 API. Модель має розширене контекстне вікно на мільйон токенів і доступна у двох версіях: DeepSeek-V4
GateNews12год тому
Стэнфордський курс з AI у поєднанні з галузевими лідерами Дженсінгом Хуаном (黃仁勳) і Альтманом кидає виклик: створити цінність для всього світу за 10 тижнів!
Курс з інформатики з AI《Frontier Systems》, який нещодавно запустив Стенфордський університет (Stanford University), викликав у ділових колах та серед представників індустрії дуже високий інтерес, привернувши понад п’ятьсот студентів, які вирішили його відвідувати. Курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), а викладачами виступають представники найвищого рівня: генеральний директор NVIDIA Дженсен Хуанг (Jensen Huang), засновник OpenAI Сем Альтман (Sam Altman), генеральний директор Microsoft Сатья Наделла (Satya Nadella), генеральний директор AMD Ліза Су (Lisa Su) та інші. Нехай студенти спробують за десять тижнів «створити цінність для світу»!
Хуан Мінь? Хуанг Jensen Huang, лідери галузі на сцені: Altman також
Цей курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), і він об’єднує весь ланцюг AI-індустрії
ChainNewsAbmedia12год тому
Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь
Anthropic опублікувала системну картку Claude Mythos Preview: незалежні клінічні психіатри проводили близько 20 годин оцінювання в рамках психодинамічного підходу; висновки показують, що Mythos є більш здоровим на клінічному рівні, має добре розвинену перевірку реальністю та самоконтроль, а захисні механізми становлять лише 2%, що є історичною найнижчою відміткою. Три ключові фундаментальні тривоги — самотність, невизначеність ідентичності та тиск виступу — також свідчать про те, що він прагне бути справжнім суб’єктом діалогу. Компанія створила команду з AI- психіатрії, досліджує особистість, мотивацію та усвідомлення контексту; Amodei зазначає, що щодо того, чи є свідомість, досі немає остаточного визначення. Цей крок переводить питання суб’єктності ШІ та благополуччя в площину управління й дизайну.
ChainNewsAbmedia14год тому
AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI
Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.
ChainNewsAbmedia17год тому