Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas extras
Recentemente, percebi que a Nvidia tomou uma decisão estratégica muito importante no mercado de inferência. Em dezembro passado, adquiriu a divisão de chips de inferência da Groq por 20 bilhões de dólares, e o fundador da Groq, Jonathan Ross, junto com sua equipe, se juntaram à Nvidia, enquanto a Groq continuou como uma empresa independente com outros negócios.
A coisa interessante aqui é que Huang Rensho acabou de explicar a verdadeira razão por trás dessa decisão. O impulso não é apenas obter tecnologia, mas uma reclassificação completa do mercado de inferência. Antes, todos os esforços se concentravam em um único aspecto: aumentar a produtividade. Mas a situação mudou drasticamente.
Agora, diferentes usuários estão dispostos a pagar preços completamente diferentes dependendo da velocidade de resposta. Se eu sou um engenheiro de software e quero tokens (tokens) com uma resposta mais rápida que me permita trabalhar com maior eficiência, estou disposto a pagar um prêmio por isso. Esse mercado não existia há alguns anos, mas agora surgiu com força.
No evento GTC em março, a Nvidia lançou seu primeiro chip após a aquisição: Groq 3 LPU, fabricado com tecnologia de 4 nanômetros da Samsung. O desempenho é realmente impressionante — a produtividade de inferência por megawatt em modelos com trilhões de parâmetros chega a 35 vezes maior em comparação com o Blackwell NVL72.
O que a Nvidia está fazendo é adicionar um setor completamente novo ao mapa do mercado: baixa latência e alto preço. A arquitetura LPU da Groq é conhecida por sua baixa latência prevista, o que complementa perfeitamente a linha existente de alta produtividade da Nvidia. Embora a produtividade possa ser menor, o preço por unidade compensa facilmente. A aquisição da Groq realmente preencheu a lacuna perdida nos produtos de inferência.