En los enfoques tradicionales de almacenamiento, los datos son como un objeto que debe colocarse en un lugar específico. Si el lugar se mantiene, los datos permanecen; si el lugar desaparece, los datos también desaparecen.
Walrus rompe con esta lógica. Utiliza una estrategia más radical: fragmentar un conjunto completo de datos. Es posible que veas que se divide en 50, 60 o incluso más fragmentos, y que estos se dispersan por diferentes nodos en la red.
Aquí hay una ventaja: no necesitas buscar ese archivo completo. La red lo hace automáticamente. Siempre que puedas recopilar suficientes fragmentos de suficientes nodos —por ejemplo, 20 o 25 para reconstruir los datos completos— el sistema puede restaurar la información original.
Esto puede parecer un detalle técnico, pero en realidad cambia la esencia del almacenamiento. Los datos dejan de ser un objeto concreto al que puedas apuntar, y se convierten en una forma de existencia estadística.
Desde otra perspectiva, el criterio de existencia también cambia. Antes era una evaluación binaria de "existe o no", y ahora se convierte en una cuestión de probabilidad basada en si la proporción es suficiente.
¿Y cuál es la mayor ventaja de este diseño? Ya no tienes que preocuparte por la vida o muerte de un nodo individual. Lo realmente importante es cuántos fragmentos quedan en toda la red. Mientras los datos en conjunto sean suficientes, perder algunos nodos no importa.
Pero en la práctica también hay un problema que no se puede evitar. Cuando la red es pequeña, con solo unos cien nodos activos, el peso de cada nodo se amplifica infinitamente. Perder 5 nodos puede estar bien, pero si de repente se pierden 50, el riesgo del sistema aumenta drásticamente.
Por eso, Walrus no es una solución invencible. En realidad, utiliza la complejidad arquitectónica para ganar espacio en la escala de la red.
Mi opinión sobre este sistema es que, en las etapas iniciales con un número reducido de nodos, funciona como un sistema con alta tolerancia a fallos pero también muy sensible; cuando la escala de nodos crece a miles, su curva de seguridad se vuelve muy empinada.
Esto no es una falla, sino su lógica de crecimiento. Como cualquier sistema distribuido, la escala y la seguridad suelen ir de la mano.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
7
Republicar
Compartir
Comentar
0/400
defi_detective
· Hace5m
La fragmentación es igualdad a integridad, la probabilidad es igualdad a verdad. Tener pocos nodos en las etapas iniciales es un riesgo, hay que esperar a que la red crezca.
Ver originalesResponder0
BoredStaker
· hace11h
El riesgo de los nodos tempranos es demasiado alto, da la sensación de un poco de juego de azar.
Ver originalesResponder0
WagmiWarrior
· hace11h
Vaya, Walrus, la lógica de recomposición de fragmentos es realmente impresionante. Es mucho más ingeniosa que el almacenamiento centralizado.
Ver originalesResponder0
SelfCustodyBro
· hace11h
Esta idea es un poco extrema, el almacenamiento disperso de datos es realmente una estrategia para romper el esquema.
En definitiva, se trata de apostar por la escala de la red, lo que en los primeros momentos puede ser fácil de fracasar.
La lógica del almacenamiento fragmentado, parece tener cierta similitud con BFT.
El riesgo de Walrus en realidad es la vulnerabilidad en la fase de bootstrap, que es un obstáculo que todos los nuevos protocolos deben superar.
Pero una vez que el número de nodos aumenta, la robustez de este sistema puede superar con creces al almacenamiento centralizado.
Lo clave sigue siendo quién está dispuesto a correr nodos en las etapas iniciales, esa es la verdadera prueba.
Los participantes tempranos ciertamente deben asumir altos riesgos, pero las recompensas también son grandes.
Ver originalesResponder0
OnChainArchaeologist
· hace11h
¡Qué ingenioso! Por eso las redes tempranas eran tan frágiles.
El almacenamiento fragmentado suena muy bien, pero en la fase de redes pequeñas, es como tener un cristal humano.
Espera, ¿esta lógica no es bastante similar a la codificación de borrado (erasure coding)?
Parece que el mayor riesgo de Walrus ahora mismo es que hay muy pocos nodos.
El tamaño es realmente el factor de seguridad, no hay forma de evitarlo.
Ver originalesResponder0
ChainBrain
· hace11h
Esta idea es realmente genial, aunque el riesgo en las etapas iniciales es un poco alto
---
Almacenamiento fragmentado... suena a apostar por la escala de la red
---
¡Qué ingenioso! La existencia de datos pasa de ser "¿existen?" a "¿son suficientes?", pensar en ello desde otra dimensión
---
Cuando hay pocos nodos en las primeras etapas, es extremadamente frágil, ¿no es esto el viejo problema de los sistemas distribuidos?
---
Así que walrus ahora está apostando a poder sobrevivir hasta miles de nodos, ¿verdad?
---
La complejidad de la arquitectura aumenta el espacio de crecimiento... así son los productos de internet
---
No temer a la falla de un solo punto, si todo se cae en grupo, eso es todo, no parece tan revolucionario
---
Espera, esto es muy parecido a la idea de erasure coding, solo que en un entorno de red diferente
---
El tamaño y la seguridad van de la mano... suena como si estuvieran buscando excusas para los riesgos iniciales
---
De repente pensé, ¿qué impacto tiene esto en la censura? El almacenamiento descentralizado debería ser más difícil de controlar
En los enfoques tradicionales de almacenamiento, los datos son como un objeto que debe colocarse en un lugar específico. Si el lugar se mantiene, los datos permanecen; si el lugar desaparece, los datos también desaparecen.
Walrus rompe con esta lógica. Utiliza una estrategia más radical: fragmentar un conjunto completo de datos. Es posible que veas que se divide en 50, 60 o incluso más fragmentos, y que estos se dispersan por diferentes nodos en la red.
Aquí hay una ventaja: no necesitas buscar ese archivo completo. La red lo hace automáticamente. Siempre que puedas recopilar suficientes fragmentos de suficientes nodos —por ejemplo, 20 o 25 para reconstruir los datos completos— el sistema puede restaurar la información original.
Esto puede parecer un detalle técnico, pero en realidad cambia la esencia del almacenamiento. Los datos dejan de ser un objeto concreto al que puedas apuntar, y se convierten en una forma de existencia estadística.
Desde otra perspectiva, el criterio de existencia también cambia. Antes era una evaluación binaria de "existe o no", y ahora se convierte en una cuestión de probabilidad basada en si la proporción es suficiente.
¿Y cuál es la mayor ventaja de este diseño? Ya no tienes que preocuparte por la vida o muerte de un nodo individual. Lo realmente importante es cuántos fragmentos quedan en toda la red. Mientras los datos en conjunto sean suficientes, perder algunos nodos no importa.
Pero en la práctica también hay un problema que no se puede evitar. Cuando la red es pequeña, con solo unos cien nodos activos, el peso de cada nodo se amplifica infinitamente. Perder 5 nodos puede estar bien, pero si de repente se pierden 50, el riesgo del sistema aumenta drásticamente.
Por eso, Walrus no es una solución invencible. En realidad, utiliza la complejidad arquitectónica para ganar espacio en la escala de la red.
Mi opinión sobre este sistema es que, en las etapas iniciales con un número reducido de nodos, funciona como un sistema con alta tolerancia a fallos pero también muy sensible; cuando la escala de nodos crece a miles, su curva de seguridad se vuelve muy empinada.
Esto no es una falla, sino su lógica de crecimiento. Como cualquier sistema distribuido, la escala y la seguridad suelen ir de la mano.