MiniMax M2.7 Leva Modelo de IA de 230B Parâmetros para Infraestrutura NVIDIA

robot
Geração do resumo em andamento

Ted Hisokawa

12 de abr. de 2026 01:37

MiniMax lança o M2.7, um modelo de mistura de especialistas com 230 bilhões de parâmetros otimizado para GPUs NVIDIA, com ganhos de throughput de até 2,7x no hardware Blackwell.

A MiniMax lançou o M2.7, um modelo de IA de pesos abertos com 230 bilhões de parâmetros, projetado especificamente para fluxos de trabalho de agentes autônomos, agora disponível em todo o ecossistema de inferência da NVIDIA, incluindo as últimas GPUs Blackwell Ultra.

O modelo representa uma jogada de eficiência significativa na IA empresarial. Apesar de seus massivos 230B de parâmetros totais, o M2.7 ativa apenas 10B de parâmetros por token—uma taxa de ativação de 4,3% alcançada através de uma arquitetura de mistura de especialistas (MoE) com 256 especialistas locais. Isso mantém os custos de inferência gerenciáveis enquanto preserva a capacidade de raciocínio de um modelo muito maior.

Números de desempenho no Blackwell

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar