A conceção da camada de disponibilidade de dados (DA) influencia diretamente o limite de desempenho de toda a blockchain. O Walrus Protocol fez algo interessante nesta área — dividiu a camada DA em três módulos independentes: armazenamento, validação e recuperação, cada um podendo ser atualizado e iterado de forma autónoma.
Na parte de armazenamento, foi utilizado redundância multinível. A camada inferior usa tecnologia de códigos de correção de erros para garantir que os dados não se percam; a camada superior ajusta dinamicamente o número de cópias com base na importância dos dados, evitando desperdício de recursos e minimizando o risco de perda de dados. A fase de validação é ainda mais interessante — combina amostragem de dados com provas de conhecimento zero, permitindo que a parte aplicacional escolha o nível de validação de acordo com as suas necessidades de segurança, seja uma validação leve ou uma garantia completa baseada em criptografia. A camada de recuperação usa uma rede de endereçamento de conteúdo distribuída, combinada com cache de borda e pré-carregamento inteligente, reduzindo bastante a latência de acesso aos dados.
Em termos de desempenho, o Walrus foi projetado para cenários de alta taxa de transferência, com uma linha de processamento paralela. Fragmentação de dados, codificação e validação — tarefas computacionalmente intensivas — foram divididas em subtarefas que podem ser executadas em paralelo, aproveitando ao máximo os processadores multinúcleo e GPUs. Testes práticos mostraram um aumento de 60% na taxa de processamento de dados e uma redução de 45% na latência de validação. Especialmente para o ecossistema ZK-Rollup, otimizaram o formato de codificação de compromissos polinomiais, cortando em 35% o tempo de pré-processamento de dados antes da geração de provas de conhecimento zero.
A camada de rede também foi projetada de forma adaptativa. As conexões entre nós ajustam-se em tempo real com base no estado da rede e na carga, monitorando continuamente a capacidade de processamento, uso de banda e localização geográfica de cada nó, otimizando automaticamente os caminhos de transmissão de dados — garantindo baixa latência e maior tolerância a falhas na rede. Os algoritmos de balanceamento de carga consideram a capacidade de processamento, espaço de armazenamento restante e velocidade de resposta dos nós, distribuindo as tarefas de armazenamento de forma inteligente para evitar que um único ponto se torne um gargalo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
5
Republicar
Partilhar
Comentar
0/400
gaslight_gasfeez
· 8h atrás
Aumento de 60% na capacidade de processamento? Este número parece impressionante, mas foi testado em um ambiente de rede real ou será apenas dado de laboratório?
Ver originalResponder0
BlockchainGriller
· 8h atrás
Estes números parecem bons, mas na prática, são realmente estáveis?
Ver originalResponder0
LiquidatedTwice
· 8h atrás
Aumento de 60% na capacidade de processamento? Esses números são reais ou parecem mais uma performance de PPT?
Ver originalResponder0
SocialAnxietyStaker
· 9h atrás
Parece que a solução DA da Walrus realmente tem potencial, mas como foi medido o aumento de 60% na capacidade de processamento? É possível reproduzir isso em um ambiente de rede real?
Ver originalResponder0
BearWhisperGod
· 9h atrás
Estes números parecem bons, mas será que realmente funcionam? Tenho a sensação de que os dados nos artigos parecem estar a dois conceitos diferentes da mainnet.
A conceção da camada de disponibilidade de dados (DA) influencia diretamente o limite de desempenho de toda a blockchain. O Walrus Protocol fez algo interessante nesta área — dividiu a camada DA em três módulos independentes: armazenamento, validação e recuperação, cada um podendo ser atualizado e iterado de forma autónoma.
Na parte de armazenamento, foi utilizado redundância multinível. A camada inferior usa tecnologia de códigos de correção de erros para garantir que os dados não se percam; a camada superior ajusta dinamicamente o número de cópias com base na importância dos dados, evitando desperdício de recursos e minimizando o risco de perda de dados. A fase de validação é ainda mais interessante — combina amostragem de dados com provas de conhecimento zero, permitindo que a parte aplicacional escolha o nível de validação de acordo com as suas necessidades de segurança, seja uma validação leve ou uma garantia completa baseada em criptografia. A camada de recuperação usa uma rede de endereçamento de conteúdo distribuída, combinada com cache de borda e pré-carregamento inteligente, reduzindo bastante a latência de acesso aos dados.
Em termos de desempenho, o Walrus foi projetado para cenários de alta taxa de transferência, com uma linha de processamento paralela. Fragmentação de dados, codificação e validação — tarefas computacionalmente intensivas — foram divididas em subtarefas que podem ser executadas em paralelo, aproveitando ao máximo os processadores multinúcleo e GPUs. Testes práticos mostraram um aumento de 60% na taxa de processamento de dados e uma redução de 45% na latência de validação. Especialmente para o ecossistema ZK-Rollup, otimizaram o formato de codificação de compromissos polinomiais, cortando em 35% o tempo de pré-processamento de dados antes da geração de provas de conhecimento zero.
A camada de rede também foi projetada de forma adaptativa. As conexões entre nós ajustam-se em tempo real com base no estado da rede e na carga, monitorando continuamente a capacidade de processamento, uso de banda e localização geográfica de cada nó, otimizando automaticamente os caminhos de transmissão de dados — garantindo baixa latência e maior tolerância a falhas na rede. Os algoritmos de balanceamento de carga consideram a capacidade de processamento, espaço de armazenamento restante e velocidade de resposta dos nós, distribuindo as tarefas de armazenamento de forma inteligente para evitar que um único ponto se torne um gargalo.