Na abordagem tradicional de armazenamento, os dados são como um objeto que deve ser colocado num local específico. Se o local é preservado, os dados permanecem; se o local desaparece, os dados também desaparecem.



O Walrus rompe com essa lógica. Ele adota uma estratégia mais radical — dividir um conjunto completo de dados em várias partes. Pode-se ver que ele é cortado em 50, 60 ou até mais fragmentos, que são dispersos por diferentes nós na rede.

Aqui há uma vantagem: você nem precisa procurar onde está o arquivo completo. A rede faz isso automaticamente. Desde que você consiga coletar fragmentos suficientes de vários nós — por exemplo, 20 ou 25 para reconstruir os dados originais — o sistema consegue restaurar a informação original.

Isso parece um detalhe técnico, mas na verdade muda a essência do conceito de armazenamento. Os dados deixam de ser um objeto concreto ao qual você pode apontar, e passam a ser uma forma de existência estatística.

Por outro lado, o critério de existência também muda. Antes era uma avaliação binária de "existir ou não", agora passa a ser uma questão de probabilidade baseada na "proporção suficiente".

Qual é a maior vantagem desse design? Você não precisa mais se preocupar com a vida ou morte de um único nó. O que realmente importa é quantos fragmentos ainda estão disponíveis na rede. Desde que os dados totais estejam completos, perder alguns nós não faz diferença.

Porém, na prática, há um problema que não se pode ignorar. Quando a rede ainda é pequena, com pouco mais de uma centena de nós ativos, o peso de cada nó é amplificado ao máximo. Perder 5 nós pode ser gerenciável, mas perder 50 de uma só vez aumenta drasticamente o risco do sistema.

Portanto, o Walrus não é uma solução invencível. Na verdade, ele usa a complexidade da arquitetura para compensar o crescimento do tamanho da rede.

Minha opinião sobre esse sistema é: na fase de menor escala de nós, ele funciona como um sistema altamente tolerante a falhas, mas também altamente sensível; quando o número de nós aumenta para milhares, sua curva de segurança se torna muito íngreme.

Isso não é uma falha, mas sim a lógica de crescimento dele. Como qualquer sistema distribuído, escala e segurança geralmente caminham juntas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
defi_detectivevip
· 5m atrás
A fragmentação é a integridade, a probabilidade é a verdade. Ter poucos nós iniciais é um risco, é preciso esperar que a rede cresça para que isso seja resolvido.
Ver originalResponder0
BoredStakervip
· 11h atrás
Os riscos dos nós iniciais são demasiado elevados, parece um pouco como apostar.
Ver originalResponder0
WagmiWarriorvip
· 11h atrás
Porra, Walrus, a lógica de recomposição de fragmentos realmente é incrível. É muito mais avançada do que o armazenamento centralizado.
Ver originalResponder0
SelfCustodyBrovip
· 11h atrás
Esta abordagem é um pouco radical, o armazenamento de dados disperso é realmente uma jogada de ruptura. Resumindo, é apostar na escala da rede, o que realmente é fácil de dar errado nos estágios iniciais. A lógica de armazenamento fragmentado, parece um pouco com BFT. O risco do Walrus na verdade é a vulnerabilidade na fase de bootstrap, que é um obstáculo que todos os novos protocolos enfrentam. Mas assim que o número de nós aumenta, a robustez deste sistema realmente supera o armazenamento centralizado. O mais importante é quem está disposto a rodar nós na fase inicial, essa é a verdadeira prova. Os participantes iniciais realmente precisam assumir riscos elevados, mas o potencial de retorno também é grande.
Ver originalResponder0
OnChainArchaeologistvip
· 11h atrás
Incrível, é por isso que as redes early-stage são tão frágeis O armazenamento fragmentado parece ótimo, mas na fase de pequenas redes, é como um vidro Espera aí, essa lógica não é parecida com codificação de eliminação (erasure coding)? Parece que o maior risco do Walrus atualmente é ter poucos nós Escala é que realmente determina o fator de segurança, não há como fugir disso
Ver originalResponder0
ChainBrainvip
· 11h atrás
Esta abordagem é realmente genial, só que o risco inicial é um pouco maior --- Armazenamento fragmentado... parece que é uma aposta na escala da rede --- Incrível, os dados passam de "há" para "suficiente", pensar o problema de uma nova dimensão --- Quando há poucos nós iniciais, é extremamente frágil, não é o velho problema de sistemas distribuídos? --- Então o walrus agora está apostando que consegue sobreviver até milhares de nós, certo? --- A complexidade da arquitetura aumenta o espaço de crescimento... produtos de internet seguem esse padrão --- Falha em um ponto único não é problema, uma queda coletiva e acabou, não parece tão revolucionário --- Espera aí, isso é parecido com a ideia de erasure coding, só que em um ambiente de rede diferente --- Escala e segurança surgem juntos... parece que estão procurando desculpas para os riscos iniciais --- De repente pensei, esse sistema tem algum impacto na censura? Armazenamento descentralizado deve ser mais difícil de controlar
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)