Uma experiência de IA descentralizada, outrora confinada aos círculos de criptomoedas, acaba de receber um reconhecimento público do CEO da Nvidia, Jensen Huang, sinalizando que o treinamento de modelos distribuídos pode estar se aproximando da mainstream.
Chamath Palihapitiya destacou o Covenant-72B da Bittensor durante um episódio do All-In Podcast, apresentando-o como um exemplo tangível de inteligência artificial (IA) descentralizada avançando além da teoria. A Bittensor funciona como uma rede descentralizada, impulsionada por blockchain, que estabelece um mercado peer-to-peer onde modelos de aprendizagem de máquina e computação de IA são trocados e incentivados.
Palihapitiya descreveu o esforço de forma simples: um modelo de linguagem de grande escala (LLM) treinado sem infraestrutura centralizada, alimentado por uma rede de contribuintes independentes. “Conseguiram treinar um modelo LLaMA de 4 bilhões de parâmetros, totalmente distribuído, com várias pessoas contribuindo com capacidade de computação excedente”, disse, chamando isso de “uma realização técnica bastante impressionante.”
A comparação foi feita com uma analogia familiar. “Existem pessoas aleatórias, e cada uma recebe uma pequena parte,” acrescentou Palihapitiya, referindo-se ao projeto de computação distribuída que aproveitou hardware ocioso em todo o mundo.
Huang não descartou a ideia. Em vez disso, adotou uma visão mais ampla do mercado de IA, sugerindo que abordagens descentralizadas e proprietárias não são mutuamente exclusivas. “Essas duas coisas não são A ou B; são A e B,” afirmou Huang. “Não há dúvida sobre isso.”
Essa visão de duas pistas reflete uma divisão — e sobreposição — crescente dentro da IA. De um lado, sistemas fechados e altamente refinados, como ChatGPT, Claude e Gemini. Do outro, modelos de peso aberto e descentralizados que permitem aos desenvolvedores e organizações personalizar sistemas para necessidades específicas.
Huang deixou claro que vê ambos os caminhos como essenciais. “Modelos são uma tecnologia, não um produto,” afirmou, observando que a maioria dos usuários continuará dependendo de sistemas refinados e de uso geral, em vez de construir os seus próprios do zero.
Ao mesmo tempo, apontou para indústrias onde a personalização não é opcional. “Existem todas essas indústrias onde a expertise de domínio… precisa ser capturada de uma forma que possam controlá-la,” explicou Huang, acrescentando que “isso só pode vir de modelos abertos.”
Essa declaração encaixa-se perfeitamente na área de atuação da Bittensor. Covenant-72B, desenvolvido através de sua Subnet 3 (Templar), representa uma das maiores execuções de treinamento descentralizado até hoje, coordenando mais de 70 contribuintes através de conexões padrão de internet, sem uma autoridade central.
Tecnicamente, o modelo ultrapassa limites. Construído com 72 bilhões de parâmetros e treinado em aproximadamente 1,1 trilhão de tokens, utiliza inovações como protocolos de comunicação comprimidos e paralelismo de dados distribuídos para tornar o treinamento viável fora de centros de dados tradicionais.
Os métricas de desempenho sugerem que não é apenas experimental. Resultados de benchmarks colocam-no em competição com modelos centralizados estabelecidos, um detalhe que ajuda a explicar por que o projeto tem atraído atenção além do público nativo de criptomoedas.
O mercado também percebeu. Após o anúncio, o token do projeto, TAO, subiu 24% desde que o vídeo de Palihapitiya e Huang circulou nas redes sociais.
Ainda assim, os comentários de Huang sugerem que a história real não é de disrupção, mas de coexistência entre os dois. Sistemas de IA proprietários provavelmente permanecerão dominantes para usuários gerais, enquanto modelos abertos e descentralizados ocupam papéis em aplicações especializadas, sensíveis a custos ou impulsionadas por soberania.
Para startups, o CEO da Nvidia delineou um roteiro pragmático: começar aberto, depois acrescentar vantagens proprietárias. “Cada startup em que estamos investindo agora é open source primeiro, e depois vai para o modelo proprietário,” afirmou.
Em outras palavras, o futuro da IA pode não pertencer a uma única arquitetura ou filosofia. Pode pertencer àqueles que conseguem navegar entre ambas — e saber quando usar cada uma.
Um modelo de linguagem de 72 bilhões de parâmetros treinado através de uma rede descentralizada de contribuintes, sem infraestrutura centralizada.
Ele afirmou que modelos de IA abertos e proprietários coexistirão, descrevendo a relação como “A e B,” não uma escolha entre eles.
Mostra que modelos de IA em grande escala podem ser treinados fora de centros de dados tradicionais, desafiando suposições sobre necessidades de infraestrutura.
Apoia um futuro híbrido onde plataformas centralizadas e modelos descentralizados desempenham papéis diferentes em diversos setores.