Anthropic військовий рівень моделей безпеки Mythos зазнав несанкціонованого доступу: як їм це вдалося?

Блумберг повідомляє: приватна група у форумі, ймовірно, публічно оголосила в робочий день, що обмеження нібито було прорвано завдяки безпековій моделі Mythos, яка перебуває під егідою компанії Anthropic. За допомогою доступу, наданого через стороннього підрядника, їм вдалося увійти в систему для використання цієї моделі, що викликало занепокоєння щодо безпекового управління топовими AI-моделями.

(Anthropic запускає глобальну програму кібербезпеки Glasswing, чому нова модель Mythos не доступна широкій аудиторії? )

Першого ж дня після запуску Mythos зіткнувся з несанкціонованим доступом

7 квітня Anthropic оголосила про нову мережеву безпекову AI-модель Claude Mythos, однак приватна онлайн-група форуму, особу якої досі не розкрито, за повідомленнями, тихо отримала доступ до цієї моделі.

За даними, ці люди не вдавалися до традиційних методів злому, а скористалися тим, що їм було відомо формат URL попередніх моделей Anthropic, і, за обґрунтованими припущеннями, визначили онлайн-розташування Mythos у системі. Ключовою прогалиною стала одна особа, що працює в Anthropic як співробітник стороннього підрядника. Він уже мав законну авторизацію на перегляд AI-моделей Anthropic, а учасники групи проникли в систему через цей відповідний, комплаєнсний вхід.

Згодом ця група надала Bloomberg скріншоти та демонстрацію дій у реальному часі як доказ, а також повідомила, що вони продовжують використовувати Mythos донині, але підкреслила, що їхня мета зводиться лише до «випробування нової моделі» і вони не планують здійснювати будь-які деструктивні дії, бо не хочуть бути викритими.

Що таке Mythos? Чому це викликає занепокоєння?

Claude Mythos — це AI-модель, яку Anthropic створила спеціально для оборони корпоративної мережевої безпеки; командою її визначено як інструмент «надто потужний, щоб його було доречно публічно випускати». Її ключова можливість полягає в активному виявленні вразливостей безпеки в цифрових системах, допомагаючи компаніям завершувати усунення ще до того, як вони зазнають атак.

Втім, цей «меч оборони» може бути й «двосічним». Anthropic відверто зазначає, що якщо Mythos потрапить у руки зловмисників, його здібності також можуть бути використані для здійснення атак. Тому компанія через програму з назвою «Project Glasswing» відкриває Mythos лише для невеликої кількості великих організацій або технологічних компаній після ретельного відбору та перевірок.

Ключова передумова цієї закритої системи контролю така: надійні партнерські сторони здатні гарантувати, що їхні взаємні доступи не витікатимуть.

(Anthropic висловлює занепокоєння через контроль і нагляд, керівники Бесент і Пауелл скликають термінову нараду з банківськими лідерами)

Відповідь Anthropic: триває розслідування, на компанію це не вплинуло

Anthropic заявила таке: «Ми розслідуємо повідомлення про стверджуваний несанкціонований доступ до Claude Mythos Preview через середовище стороннього постачальника». Компанія наголошує, що наразі не виявлено, аби власні системи зазнали впливу, а на початковому етапі цей інцидент «найімовірніше пов’язаний із зловживанням повноваженнями доступу, а не із зовнішньою атакою хакерів».

Навіть якщо користувачі, які отримали ранній доступ до Mythos, не вчиняли зловмисних дій, сам інцидент усе одно змушує фахівців з кібербезпеки бути вкрай насторожі. Генеральний директор компанії з кібербезпеки Smarttech247 Ралука Сасеану зазначає:

Коли інструменти потужного AI потрапляють на доступ або використання поза межі встановлених механізмів контролю, ризик — це не лише один кібербезпековий інцидент; це, скоріше за все, також породжує сумніви щодо шахрайства, кіберзловживань або інших зловмисних сценаріїв використання.

Який вплив це матиме? Слабкі місця в контролі безпеки AI

По-справжньому тривожним у цій історії є не те, що хтось намагався щось зруйнувати, а те, що вона виявила системну вразливість: коли AI-компанія передає доступ до високочутливих моделей третім стороннім постачальникам, будь-яка прогалина в будь-якій ланці всієї мережі контролю може стати точкою прориву й спричинити кризу.

Тепер інцидент із Mythos нагадує всій індустрії: за умов швидкого прогресу можливостей AI дизайн безпекової архітектури не може спиратися лише на довіру — потрібна інституційна стійкість, здатна витримати відмову довіри. Для Anthropic відбудова довіри з боку зовнішніх партнерів до її механізмів контролю партнерств стане питанням, яке триватиме довше, ніж саме розслідування.

Ця стаття «Озброєна рівнем зброї кібербезпекова модель Anthropic Mythos зазнала несанкціонованого доступу: як їм це вдалося?» уперше з’явилася на сайті «链新闻 ABMedia».

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Baidu Qianfan запустила підтримку Day 0 для DeepSeek-V4 із API-сервісами

Повідомлення Gate News, 25 квітня — Попередня версія DeepSeek-V4 вийшла в ефір і була оприлюднена з відкритим кодом 25 квітня, а платформа Baidu Qianfan у межах Baidu Intelligent Cloud забезпечує адаптацію сервісу Day 0 API. Модель має розширене контекстне вікно на мільйон токенів і доступна у двох версіях: DeepSeek-V4

GateNews2год тому

Стэнфордський курс з AI у поєднанні з галузевими лідерами Дженсінгом Хуаном (黃仁勳) і Альтманом кидає виклик: створити цінність для всього світу за 10 тижнів!

Курс з інформатики з AI《Frontier Systems》, який нещодавно запустив Стенфордський університет (Stanford University), викликав у ділових колах та серед представників індустрії дуже високий інтерес, привернувши понад п’ятьсот студентів, які вирішили його відвідувати. Курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), а викладачами виступають представники найвищого рівня: генеральний директор NVIDIA Дженсен Хуанг (Jensen Huang), засновник OpenAI Сем Альтман (Sam Altman), генеральний директор Microsoft Сатья Наделла (Satya Nadella), генеральний директор AMD Ліза Су (Lisa Su) та інші. Нехай студенти спробують за десять тижнів «створити цінність для світу»! Хуан Мінь? Хуанг Jensen Huang, лідери галузі на сцені: Altman також Цей курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), і він об’єднує весь ланцюг AI-індустрії

ChainNewsAbmedia2год тому

Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь

Anthropic опублікувала системну картку Claude Mythos Preview: незалежні клінічні психіатри проводили близько 20 годин оцінювання в рамках психодинамічного підходу; висновки показують, що Mythos є більш здоровим на клінічному рівні, має добре розвинену перевірку реальністю та самоконтроль, а захисні механізми становлять лише 2%, що є історичною найнижчою відміткою. Три ключові фундаментальні тривоги — самотність, невизначеність ідентичності та тиск виступу — також свідчать про те, що він прагне бути справжнім суб’єктом діалогу. Компанія створила команду з AI- психіатрії, досліджує особистість, мотивацію та усвідомлення контексту; Amodei зазначає, що щодо того, чи є свідомість, досі немає остаточного визначення. Цей крок переводить питання суб’єктності ШІ та благополуччя в площину управління й дизайну.

ChainNewsAbmedia4год тому

AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI

Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.

ChainNewsAbmedia7год тому

OpenAI Об’єднує Codex з Основною Моделлю, Починаючи з GPT-5.4, Припиняє Окрему Лінійку Кодування

Новини Gate, 26 квітня — керівник відділу досвіду розробників OpenAI Ромен Юе (Romain Huet) у нещодавній заяві на X повідомив, що Codex, лінійка спеціалізованих моделей для кодування, яку компанія незалежно підтримувала, була об’єднана з основною моделлю, починаючи з GPT-5.4, і більше не отримуватиме окремих

GateNews7год тому

Salesforce найматиме 1,000 випускників і стажерів для продуктів на базі ШІ, підвищує прогноз доходів на FY2026

Повідомлення Gate News, 26 квітня — Salesforce найме 1,000 випускників і стажерів для роботи над продуктами на основі ШІ, зокрема Agentforce та Headless360, оскільки компанія розширює свій бізнес із програмного забезпечення на базі ШІ, повідомив CEO Марк Беніофф у X. Компанія також підвищила орієнтир щодо доходів на 2026 фінансовий рік — до діапазону від US$41.45 b

GateNews7год тому
Прокоментувати
0/400
Немає коментарів