Sobre almacenamiento, la mayoría de la gente piensa en ahorrar costos de espacio. Pero Walrus ha tomado un camino completamente diferente: su objetivo es resolver la pregunta de cómo mantener los datos vivos incluso en las peores circunstancias.



El diseño de este protocolo es bastante interesante. Los datos no se almacenan completos en un solo nodo, sino que se dividen en decenas de fragmentos dispersos por toda la red. Siempre que estos fragmentos conserven más del 35%-40%, los datos completos pueden ser reconstruidos.

En otras palabras, no está apostando a que un nodo en particular funcione de manera estable, sino a que toda la red no colapse simultáneamente en más del 60%-65%. Son dos hipótesis de riesgo completamente diferentes.

¿Y qué pasa con las soluciones tradicionales de múltiples copias? ¿Qué temen? A fallos de punto único. Si pierdes las 2 copias de 2, los datos desaparecen para siempre. Pero con el sistema Walrus, puedes perder simultáneamente 20 nodos, 30 nodos, o incluso más, siempre que el porcentaje de fragmentos restantes sea suficiente, los datos seguirán siendo sólidos como una roca.

¿Y el costo? También es bastante directo. Para lograr este nivel de tolerancia a fallos, la redundancia debe multiplicarse por 4x-5x. Es decir, si quieres almacenar 1GB de datos, en realidad puede que necesites ocupar entre 4 y 5GB de espacio en la red.

¿Parece un desperdicio? No exactamente. Este dinero se invierte en confiabilidad. La lógica central es clara: Walrus no busca reducir al máximo los costos de almacenamiento, sino optimizar el rendimiento en las peores condiciones. Este diseño no es adecuado para almacenamiento de archivos comunes, pero para aquellos datos críticos cuya pérdida puede desencadenar reacciones en cadena —como infraestructura blockchain, datos de validación entre cadenas—, resulta sumamente necesario.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Republicar
  • Compartir
Comentar
0/400
LuckyBearDrawervip
· hace14h
Esto es realmente pensamiento descentralizado, no solo ahorrar dinero --- ¿Redundancia de 4-5 veces? Eso debe ser un coste aterrador... pero pensándolo bien, es realmente estable --- Perder datos clave realmente puede provocar un efecto dominó, ya entendí la idea de Walrus --- En pocas palabras, es usar espacio para ganar seguridad, lo cual vale la pena para la infraestructura en la cadena --- Con un 35%-40% se puede recuperar toda la data, ¡el diseño del código es increíble! --- El esquema de múltiples copias es realmente basura, si un nodo falla, todo se va a la mierda, esta solución dispersa es mucho más inteligente --- Por eso, esto está hecho a medida para infraestructura clave, no pienses en usarlo para guardar fotos de gatos --- En lugar de apostar por la estabilidad de un solo punto, apuesto por la integridad de toda la red, tengo que pensar más en ese modelo de riesgo --- La redundancia de 4-5 veces suena lujosa, pero pensando en el coste de que los datos en la cadena desaparezcan para siempre... en realidad es barato --- Finalmente alguien hace almacenamiento pensando en la fiabilidad, no solo bajando precios
Ver originalesResponder0
PumpDoctrinevip
· hace14h
4-5 veces de redundancia suena fuerte, pero el verdadero costo es en el momento de perder la cadena
Ver originalesResponder0
GateUser-9f682d4cvip
· hace15h
¡Vaya, esto es realmente pensamiento distribuido en su máxima expresión! No se trata de ahorrar dinero, sino de comprar seguros, tengo que reflexionar más sobre esta lógica. --- Escuchar que una redundancia de 4-5 veces suena cara, pero pensando en el costo de perder la cadena... vale la pena. --- Finalmente alguien ha entendido, el almacenamiento nunca ha sido mejor cuanto más barato. --- Espera, ¿esto significa que las soluciones tradicionales son en realidad más frágiles? Antes lo entendí al revés. --- Los datos clave deben manejarse así, el método Walrus es correcto. --- Por cierto, ¿este tipo de diseño no será copiado por algún protocolo? Parece fácil de replicar. --- Almacenar 1GB de datos en 5GB... calculando, el costo anual es un poco alto, pero no perder datos es realmente atractivo. --- Solo quiero saber cuántos nodos pueden fallar simultáneamente en la práctica, la teoría es una cosa.
Ver originalesResponder0
HashRateHustlervip
· hace15h
4 a 5 veces de redundancia suena agresivo, pero realmente vale la pena para los datos en la cadena
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)