Ao ver o esquema de armazenamento do Walrus, parece que a abordagem é bastante pragmática. A lógica central é bastante direta — não seja tolo a ponto de simplesmente copiar os dados sem pensar para garantir a segurança.
Eles usam o Red Stuff de código de correção de erros, que divide o arquivo em fragmentos e os distribui por diferentes nós. Desde que você consiga reunir uma quantidade suficiente de fragmentos, pode reconstruir os dados originais na íntegra. Parece simples, mas o efeito é muito importante.
Em comparação com as soluções tradicionais de múltiplas cópias, essa abordagem consegue garantir alta disponibilidade e tolerância a falhas do sistema, ao mesmo tempo que reduz o fator de cópia para cerca de 4 a 5 vezes. É importante entender o quanto isso impacta nos custos de armazenamento. Do ponto de vista técnico, isso é substituir o esforço bruto por algoritmos mais inteligentes — essa é a verdadeira direção que o armazenamento descentralizado deve seguir.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
5
Republicar
Partilhar
Comentar
0/400
MerkleTreeHugger
· 1h atrás
A codificação de correção de erros realmente é inteligente, supera em muito as soluções que apenas empilham máquinas
---
Reduzir o fator de cópia em 4 a 5 vezes? O custo é drasticamente cortado ao meio, essa é a verdadeira cara do Web3
---
Resumindo, a otimização de algoritmos supera a força bruta, essa abordagem do Walrus eu aprovo
---
Espera aí, essa dispersão de fragmentos realmente consegue resistir à censura? Ou depende da implementação específica
---
Mas e os riscos do código vermelho, a probabilidade de os nós agirem mal também aumenta?
---
A elegância do algoritmo é elegante, só tenho medo de o incentivo econômico não estar bem projetado
---
Finalmente alguém que não copia cegamente, essa sim é uma solução de armazenamento decente
Ver originalResponder0
BlockchainDecoder
· 01-15 14:58
A lógica de código de correção de erros já foi validada pelo setor de armazenamento há algum tempo, e a utilização pelo Walrus é realmente inteligente. Ao eliminar as cópias redundantes, os custos reduzem-se imediatamente; do ponto de vista técnico, essa é realmente a abordagem correta.
Ver originalResponder0
FloorSweeper
· 01-15 14:57
A codificação de correção de erros deveria ter sido popularizada há muito tempo, é cem vezes melhor do que simplesmente copiar dados de forma tola. O custo de armazenamento é diretamente reduzido pela metade, isso sim é eficiência de verdade.
---
Finalmente alguém que usa o cérebro para armazenamento, não fica só copiando e colando o tempo todo...
---
Espera aí, isso não é exatamente a lógica que o IPFS já usa há um tempo? O Walrus só está usando agora?
---
Reduzir o fator de cópia para 4 a 5 vezes é muito importante, tem um impacto enorme no modelo econômico dos nós.
---
A otimização de algoritmos é sempre muito mais barata do que gastar recursos com hardware, por que tanta gente ainda não percebeu isso?
---
A junção de fragmentos parece simples, mas o verdadeiro desafio está no design de mecanismos de tolerância a falhas que realmente funcionem...
---
Armazenamento descentralizado deve ser feito assim, caso contrário, o custo será sempre um gargalo.
---
A codificação de correção de erros com código vermelho parece promissora, mas como lidar com a latência de sincronização entre nós em diferentes regiões?
---
A eficiência está bem feita, mas o tempo de recuperação de dados não vai acabar ficando maior?
---
Em comparação com aqueles projetos que só sabem acumular nós, essa abordagem é realmente mais clara.
Ver originalResponder0
HodlKumamon
· 01-15 14:56
A abordagem de código de correção de erros é realmente inteligente, com um fator de cópia de 4 a 5 vezes em comparação com os métodos tradicionais, e o custo caiu imediatamente.
Ver originalResponder0
NFTPessimist
· 01-15 14:44
A codificação de correção de erros realmente é muito mais inteligente do que simplesmente copiar, quem não gosta de reduzir tanto os custos assim?
---
Mais uma vez, falando de armazenamento e tolerância a falhas, por que não mencionar a probabilidade de perda de fragmentos em ambientes reais?
---
Substituir força bruta por algoritmos parece uma boa ideia, mas na prática, como será que funciona? Isso é típico de um idealismo bastante otimista.
---
Coeficiente de cópia de 4 a 5 vezes, até que está bom, pelo menos é mais compreensível do que aquele esquema do IPFS.
---
Armazenamento descentralizado está de volta, por que sinto que esses planos sempre acabam dependendo de alguns nós-chave?
---
Reconheço que os algoritmos inteligentes são bons, mas quantos projetos realmente usam isso na ecologia?
Ao ver o esquema de armazenamento do Walrus, parece que a abordagem é bastante pragmática. A lógica central é bastante direta — não seja tolo a ponto de simplesmente copiar os dados sem pensar para garantir a segurança.
Eles usam o Red Stuff de código de correção de erros, que divide o arquivo em fragmentos e os distribui por diferentes nós. Desde que você consiga reunir uma quantidade suficiente de fragmentos, pode reconstruir os dados originais na íntegra. Parece simples, mas o efeito é muito importante.
Em comparação com as soluções tradicionais de múltiplas cópias, essa abordagem consegue garantir alta disponibilidade e tolerância a falhas do sistema, ao mesmo tempo que reduz o fator de cópia para cerca de 4 a 5 vezes. É importante entender o quanto isso impacta nos custos de armazenamento. Do ponto de vista técnico, isso é substituir o esforço bruto por algoritmos mais inteligentes — essa é a verdadeira direção que o armazenamento descentralizado deve seguir.