Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
MiniMax M2.7 представляє модель штучного інтелекту з 230 мільярдами параметрів для інфраструктури NVIDIA
Тед Гісокава
12 квітня 2026 01:37
MiniMax випустила M2.7, модель з 230 мільярдами параметрів, яка є сумішшю експертів, оптимізованою для GPU NVIDIA з до 2,7-кратним приростом пропускної здатності на апаратному забезпеченні Blackwell.
MiniMax випустила M2.7, модель штучного інтелекту з 230 мільярдами відкритих ваг, спеціально розроблену для робочих процесів автономних агентів, тепер доступну у всій екосистемі виведення NVIDIA, включаючи найновіші графічні процесори Blackwell Ultra.
Модель є значним кроком у підвищенні ефективності корпоративного ШІ. Незважаючи на свої масивні 230 мільярдів параметрів, M2.7 активує лише 10 мільярдів параметрів на токен — при цьому рівень активації становить 4,3%, що досягається за допомогою архітектури (MoE) з сумішшю експертів та 256 локальними експертами. Це дозволяє зберегти керовані витрати на виведення при збереженні здатності до розуміння, характерної для набагато більшої моделі.
Показники продуктивності на Blackwell
NVIDIA співпрацювала з відкритими спільнотами для оптимізації M2.7 для виробничих навантажень. Два ключові покращення — злитий ядро QK RMS Norm та інтеграція FP8 MoE з TensorRT-LLM — забезпечили значний приріст пропускної здатності на графічних процесорах Blackwell Ultra.
Тестування з набором даних довжиною 1K/1K для вхідних та вихідних послідовностей показало, що vLLM досягла до 2,5-кратного збільшення пропускної здатності, тоді як SGLang — до 2,7-кратного. Обидва покращення були впроваджені протягом місяця, що свідчить про потенціал для подальшого підвищення продуктивності.
Технічна архітектура
M2.7 підтримує довжину контексту до 200 тисяч для 62 шарів, використовуючи багатоголовий причинний самовнимання з роторними позиційними вбудовуваннями (RoPE). Механізм маршрутизації експертів top-k активує лише 8 з 256 експертів для будь-якого вхідного запиту, що дозволяє моделі зберігати низькі витрати на виведення при масштабі.
Архітектура орієнтована на рішення задач кодування та складні агентські задачі — робочі процеси, де системи ШІ повинні планувати, виконувати та ітерувати автономно, а не реагувати на окремі запити.
Варіанти розгортання
Розробники можуть отримати доступ до M2.7 через кілька каналів. Посилена платформа NemoClaw від NVIDIA забезпечує одноклікове розгортання для запуску автономних агентів з середовищем OpenShell. Модель також доступна через контейнеризовані мікросервіси NVIDIA NIM для локальних, хмарних або гібридних розгортань.
Для команд, які бажають налаштувати модель, бібліотека NeMo AutoModel від NVIDIA підтримує доопрацювання з використанням опублікованих рецептів. Робочі процеси навчання з підкріпленням доступні через NeMo RL з прикладами конфігурацій для довжини послідовностей 8K та 16K.
Безкоштовні GPU-прискорені кінцеві точки на build.nvidia.com дозволяють протестувати модель перед інвестицією в інфраструктуру. Відкриті ваги також доступні на Hugging Face для самостійного розгортання.
Випуск позиціонує MiniMax як надійну альтернативу закритим моделям від OpenAI та Anthropic для підприємств, що створюють автономні системи ШІ, особливо ті, що вже інвестували в інфраструктуру NVIDIA.
Джерело зображення: Shutterstock