Anthropic оголосила цього місяця модель під назвою Claude Mythos. Вони заявили, що її надто небезпечно випускати.


Вони заблокували її за перевіреною коаліцією AWS, Apple, Microsoft, Google і JPMorgan за ціну в 5 разів вищу за їхню найкращу модель.
Загалом, вона стверджувала, що знаходить програмні вразливості, яких раніше не виявляли ні люди, ні штучний інтелект.
Через 2 тижні дослідник з безпеки виявив ті самі помилки, які Anthropic показувала як доказ, і ввів їх у малі, дешеві відкриті моделі, які може запускати будь-хто.
Кожна з них знайшла головну помилку. Відкрита модель з вагами з китайської лабораторії також помітила щось, чого не помітила оголошена Anthropic: ця помилка є черв'яною.
Вона поширюється сама по собі з машини на машину.
Ось у чому різниця між серйозною вадою і тим, що може зруйнувати лікарні в 150 країнах за один уікенд.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити