Muitas pessoas ao verem o Walrus, a primeira reação é que ele tem uma relação um pouco apertada com a Sui. Mas isso não é uma falha, pelo contrário, é uma parte do design engenhoso.



A própria Sui já é bastante agressiva na execução paralela. Assim que o modelo de objetos é separado, objetos independentes são processados de forma concorrente, e objetos compartilhados podem alcançar finalidade em menos de um segundo graças ao esquema de otimização Mysticeti. O que isso significa? Significa que toda a camada de metadados e coordenação do Walrus é executada na Sui, o que não se torna um gargalo. Em contraste com outras cadeias de armazenamento, cujo mecanismo de consenso é serial, basta fazer upload de um arquivo grande para que toda a rede espere, tornando a experiência do usuário extremamente frustrante.

A verdadeira inovação está na segmentação. O Walrus usa código de correção de erros, com parâmetros ajustados de forma bastante interessante — conservador e flexível. Conservador no sentido de que a taxa de redundância é muito baixa, começando em 1,5x, garantindo alta disponibilidade, e flexível porque a votação de governança pode ser ajustada para até 3x conforme necessário. Por que se atrever a aumentar a redundância? Porque a alta taxa de transferência da Sui reduz bastante o custo de coordenação de transações.

O processo funciona assim: o usuário inicia uma solicitação de armazenamento, o sistema divide o arquivo em várias centenas de partes, ao mesmo tempo gerando provas de correção de erros. Essas provas são verificadas em paralelo na Sui, depois as instruções são distribuídas e transmitidas de forma concorrente para os nós. Os nós armazenam as partes ao receberem, enviam confirmações ao concluir, e essas confirmações são agregadas na cadeia. Todo o processo é concluído em segundos.

Concluir em segundos significa o quê? Para cenários de migração de datasets de GB ou TB, como no caso de IA, é possível avançar na velocidade máxima, sem precisar esperar por lotes ou janelas de tempo. Isso é algo que o armazenamento centralizado simplesmente não consegue fazer.

Vamos pensar em um cenário de aplicação — inferência em tempo real com agentes de IA. Os agentes precisam puxar dinamicamente os pesos do modelo e os dados históricos para realizar cálculos de inferência. Se a latência de armazenamento for alta, todo o ciclo de inferência fica travado. Com o Walrus, dados de alta demanda são automaticamente cacheados em múltiplas cópias, e o caminho de leitura paralelo é maximizado. O modelo de objetos da Sui permite que a coordenação entre as cópias do cache também seja executada de forma concorrente. Para aplicações que exigem alta reatividade, isso representa uma verdadeira inovação de desempenho.
SUI3,15%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
0/400
MEVictimvip
· 01-20 14:29
Espera aí, o código de correção de erros com 1,5x de redundância consegue garantir alta disponibilidade? Esses números parecem um pouco abstratos, há dados de benchmark reais? Sui realmente é excelente em paralelismo, mas a arquitetura Walrus consegue suportar a migração de dados em TB? Parece que só podemos comemorar quando o mainnet estiver online. Completar em segundos soa ótimo, mas tenho medo de que na prática seja uma história diferente.
Ver originalResponder0
WhaleMistakervip
· 01-19 23:55
O armazenamento em segundos é realmente impressionante, mas o design paralelo do Sui consegue suportar, e essa configuração de parâmetros do código de correção de erros tem seu valor.
Ver originalResponder0
GateUser-addcaaf7vip
· 01-19 23:54
Ai, as características de paralelismo do Sui foram realmente compreendidas. A solução de código de correção de erros Walrus completa em segundos, mas a eficiência comparável ao armazenamento centralizado ainda não consegue se sustentar
Ver originalResponder0
WenMoonvip
· 01-19 23:53
Armazenamento de nível de segundos? Sério mesmo? Isto é realmente o que um sistema distribuído deve ser assim.
Ver originalResponder0
LidoStakeAddictvip
· 01-19 23:50
O armazenamento de nível de segundos é realmente excelente, o modelo de objetos do Sui combinado com o código de correção de erros funciona muito bem.
Ver originalResponder0
  • Em alta na Gate Fun

    Ver projetos
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$3.43KHolders:1
    0.00%
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$3.42KHolders:1
    0.00%
  • Cap. de M.:$3.42KHolders:1
    0.00%
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)