Muitas pessoas ao verem o Walrus, a primeira reação é que ele tem uma relação um pouco apertada com a Sui. Mas isso não é uma falha, pelo contrário, é uma parte do design engenhoso.
A própria Sui já é bastante agressiva na execução paralela. Assim que o modelo de objetos é separado, objetos independentes são processados de forma concorrente, e objetos compartilhados podem alcançar finalidade em menos de um segundo graças ao esquema de otimização Mysticeti. O que isso significa? Significa que toda a camada de metadados e coordenação do Walrus é executada na Sui, o que não se torna um gargalo. Em contraste com outras cadeias de armazenamento, cujo mecanismo de consenso é serial, basta fazer upload de um arquivo grande para que toda a rede espere, tornando a experiência do usuário extremamente frustrante.
A verdadeira inovação está na segmentação. O Walrus usa código de correção de erros, com parâmetros ajustados de forma bastante interessante — conservador e flexível. Conservador no sentido de que a taxa de redundância é muito baixa, começando em 1,5x, garantindo alta disponibilidade, e flexível porque a votação de governança pode ser ajustada para até 3x conforme necessário. Por que se atrever a aumentar a redundância? Porque a alta taxa de transferência da Sui reduz bastante o custo de coordenação de transações.
O processo funciona assim: o usuário inicia uma solicitação de armazenamento, o sistema divide o arquivo em várias centenas de partes, ao mesmo tempo gerando provas de correção de erros. Essas provas são verificadas em paralelo na Sui, depois as instruções são distribuídas e transmitidas de forma concorrente para os nós. Os nós armazenam as partes ao receberem, enviam confirmações ao concluir, e essas confirmações são agregadas na cadeia. Todo o processo é concluído em segundos.
Concluir em segundos significa o quê? Para cenários de migração de datasets de GB ou TB, como no caso de IA, é possível avançar na velocidade máxima, sem precisar esperar por lotes ou janelas de tempo. Isso é algo que o armazenamento centralizado simplesmente não consegue fazer.
Vamos pensar em um cenário de aplicação — inferência em tempo real com agentes de IA. Os agentes precisam puxar dinamicamente os pesos do modelo e os dados históricos para realizar cálculos de inferência. Se a latência de armazenamento for alta, todo o ciclo de inferência fica travado. Com o Walrus, dados de alta demanda são automaticamente cacheados em múltiplas cópias, e o caminho de leitura paralelo é maximizado. O modelo de objetos da Sui permite que a coordenação entre as cópias do cache também seja executada de forma concorrente. Para aplicações que exigem alta reatividade, isso representa uma verdadeira inovação de desempenho.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
5
Repostar
Compartilhar
Comentário
0/400
MEVictim
· 01-20 14:29
Espera aí, o código de correção de erros com 1,5x de redundância consegue garantir alta disponibilidade? Esses números parecem um pouco abstratos, há dados de benchmark reais?
Sui realmente é excelente em paralelismo, mas a arquitetura Walrus consegue suportar a migração de dados em TB? Parece que só podemos comemorar quando o mainnet estiver online.
Completar em segundos soa ótimo, mas tenho medo de que na prática seja uma história diferente.
Ver originalResponder0
WhaleMistaker
· 01-19 23:55
O armazenamento em segundos é realmente impressionante, mas o design paralelo do Sui consegue suportar, e essa configuração de parâmetros do código de correção de erros tem seu valor.
Ver originalResponder0
GateUser-addcaaf7
· 01-19 23:54
Ai, as características de paralelismo do Sui foram realmente compreendidas. A solução de código de correção de erros Walrus completa em segundos, mas a eficiência comparável ao armazenamento centralizado ainda não consegue se sustentar
Ver originalResponder0
WenMoon
· 01-19 23:53
Armazenamento de nível de segundos? Sério mesmo? Isto é realmente o que um sistema distribuído deve ser assim.
Ver originalResponder0
LidoStakeAddict
· 01-19 23:50
O armazenamento de nível de segundos é realmente excelente, o modelo de objetos do Sui combinado com o código de correção de erros funciona muito bem.
Muitas pessoas ao verem o Walrus, a primeira reação é que ele tem uma relação um pouco apertada com a Sui. Mas isso não é uma falha, pelo contrário, é uma parte do design engenhoso.
A própria Sui já é bastante agressiva na execução paralela. Assim que o modelo de objetos é separado, objetos independentes são processados de forma concorrente, e objetos compartilhados podem alcançar finalidade em menos de um segundo graças ao esquema de otimização Mysticeti. O que isso significa? Significa que toda a camada de metadados e coordenação do Walrus é executada na Sui, o que não se torna um gargalo. Em contraste com outras cadeias de armazenamento, cujo mecanismo de consenso é serial, basta fazer upload de um arquivo grande para que toda a rede espere, tornando a experiência do usuário extremamente frustrante.
A verdadeira inovação está na segmentação. O Walrus usa código de correção de erros, com parâmetros ajustados de forma bastante interessante — conservador e flexível. Conservador no sentido de que a taxa de redundância é muito baixa, começando em 1,5x, garantindo alta disponibilidade, e flexível porque a votação de governança pode ser ajustada para até 3x conforme necessário. Por que se atrever a aumentar a redundância? Porque a alta taxa de transferência da Sui reduz bastante o custo de coordenação de transações.
O processo funciona assim: o usuário inicia uma solicitação de armazenamento, o sistema divide o arquivo em várias centenas de partes, ao mesmo tempo gerando provas de correção de erros. Essas provas são verificadas em paralelo na Sui, depois as instruções são distribuídas e transmitidas de forma concorrente para os nós. Os nós armazenam as partes ao receberem, enviam confirmações ao concluir, e essas confirmações são agregadas na cadeia. Todo o processo é concluído em segundos.
Concluir em segundos significa o quê? Para cenários de migração de datasets de GB ou TB, como no caso de IA, é possível avançar na velocidade máxima, sem precisar esperar por lotes ou janelas de tempo. Isso é algo que o armazenamento centralizado simplesmente não consegue fazer.
Vamos pensar em um cenário de aplicação — inferência em tempo real com agentes de IA. Os agentes precisam puxar dinamicamente os pesos do modelo e os dados históricos para realizar cálculos de inferência. Se a latência de armazenamento for alta, todo o ciclo de inferência fica travado. Com o Walrus, dados de alta demanda são automaticamente cacheados em múltiplas cópias, e o caminho de leitura paralelo é maximizado. O modelo de objetos da Sui permite que a coordenação entre as cópias do cache também seja executada de forma concorrente. Para aplicações que exigem alta reatividade, isso representa uma verdadeira inovação de desempenho.