La diseño de la capa de disponibilidad de datos (DA) afecta directamente al techo de rendimiento de toda la cadena de bloques. Walrus Protocol ha hecho algo interesante en este aspecto: dividir la capa DA en tres módulos independientes de almacenamiento, verificación y recuperación, cada uno de los cuales puede actualizarse e iterarse por separado.
En cuanto al almacenamiento, se utiliza redundancia multinivel. La capa base emplea tecnología de códigos de corrección de errores para garantizar que los datos no se pierdan, y la capa superior ajusta dinámicamente la cantidad de copias según la importancia de los datos, de modo que no se desperdicien recursos ni se arriesgue la pérdida de datos. La fase de verificación es aún más interesante: combina muestreo de datos y pruebas de conocimiento cero, permitiendo a los desarrolladores elegir la intensidad de la verificación según sus necesidades de seguridad, ya sea una verificación ligera o una garantía criptográfica completa, todo a tu elección. La capa de recuperación utiliza una red de direccionamiento de contenido distribuido junto con cachés en el borde y prefetching inteligente, reduciendo bastante la latencia en el acceso a los datos.
En cuanto a los indicadores de rendimiento, Walrus ha diseñado una línea de procesamiento en paralelo para escenarios de alto rendimiento. La fragmentación de datos, codificación y verificación, que son tareas computacionalmente intensivas, se dividen en sub-tareas que pueden ejecutarse en paralelo, aprovechando al máximo los procesadores multinúcleo y las GPU. Los resultados de las pruebas muestran que el rendimiento del procesamiento de datos aumentó un 60%, y la latencia de verificación se redujo un 45%. Especialmente para el ecosistema ZK-Rollup, optimizaron el formato de codificación de las promesas polinomiales, reduciendo en un 35% el tiempo de preprocesamiento de datos antes de generar las pruebas de conocimiento cero.
La capa de red también cuenta con un diseño adaptativo. Las conexiones entre nodos se ajustan en tiempo real según el estado de la red y la carga, monitoreando continuamente la capacidad de procesamiento, el uso del ancho de banda y la ubicación geográfica de cada nodo, para optimizar automáticamente las rutas de transmisión de datos—garantizando baja latencia y mejorando la tolerancia a fallos de la red. Los algoritmos de balanceo de carga consideran la capacidad de procesamiento de los nodos, el espacio de almacenamiento restante y la velocidad de respuesta, distribuyendo las tareas de almacenamiento de manera inteligente y asegurando que ningún punto único se convierta en un cuello de botella.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
5
Republicar
Compartir
Comentar
0/400
gaslight_gasfeez
· hace8h
¿Un aumento del 60% en el rendimiento? Suena impresionante, pero ¿se ha probado en un entorno de red real o solo son datos de laboratorio?
Ver originalesResponder0
BlockchainGriller
· hace8h
Estos números suenan bien, pero en la práctica, ¿son realmente estables?
Ver originalesResponder0
LiquidatedTwice
· hace8h
¿Una mejora del 60% en el rendimiento? ¿Es real esta cifra? Parece otra vez un rendimiento de PowerPoint.
Ver originalesResponder0
SocialAnxietyStaker
· hace9h
Suena como que la solución DA de Walrus realmente tiene algo, pero ¿cómo se midió esa mejora del 60% en el rendimiento? ¿Se puede reproducir en un entorno de red real?
Ver originalesResponder0
BearWhisperGod
· hace9h
Estas cifras parecen buenas, pero ¿pueden realmente funcionar? Siempre tengo la sensación de que los datos en los artículos académicos están a años luz de la red principal.
La diseño de la capa de disponibilidad de datos (DA) afecta directamente al techo de rendimiento de toda la cadena de bloques. Walrus Protocol ha hecho algo interesante en este aspecto: dividir la capa DA en tres módulos independientes de almacenamiento, verificación y recuperación, cada uno de los cuales puede actualizarse e iterarse por separado.
En cuanto al almacenamiento, se utiliza redundancia multinivel. La capa base emplea tecnología de códigos de corrección de errores para garantizar que los datos no se pierdan, y la capa superior ajusta dinámicamente la cantidad de copias según la importancia de los datos, de modo que no se desperdicien recursos ni se arriesgue la pérdida de datos. La fase de verificación es aún más interesante: combina muestreo de datos y pruebas de conocimiento cero, permitiendo a los desarrolladores elegir la intensidad de la verificación según sus necesidades de seguridad, ya sea una verificación ligera o una garantía criptográfica completa, todo a tu elección. La capa de recuperación utiliza una red de direccionamiento de contenido distribuido junto con cachés en el borde y prefetching inteligente, reduciendo bastante la latencia en el acceso a los datos.
En cuanto a los indicadores de rendimiento, Walrus ha diseñado una línea de procesamiento en paralelo para escenarios de alto rendimiento. La fragmentación de datos, codificación y verificación, que son tareas computacionalmente intensivas, se dividen en sub-tareas que pueden ejecutarse en paralelo, aprovechando al máximo los procesadores multinúcleo y las GPU. Los resultados de las pruebas muestran que el rendimiento del procesamiento de datos aumentó un 60%, y la latencia de verificación se redujo un 45%. Especialmente para el ecosistema ZK-Rollup, optimizaron el formato de codificación de las promesas polinomiales, reduciendo en un 35% el tiempo de preprocesamiento de datos antes de generar las pruebas de conocimiento cero.
La capa de red también cuenta con un diseño adaptativo. Las conexiones entre nodos se ajustan en tiempo real según el estado de la red y la carga, monitoreando continuamente la capacidad de procesamiento, el uso del ancho de banda y la ubicación geográfica de cada nodo, para optimizar automáticamente las rutas de transmisión de datos—garantizando baja latencia y mejorando la tolerancia a fallos de la red. Los algoritmos de balanceo de carga consideran la capacidad de procesamiento de los nodos, el espacio de almacenamiento restante y la velocidad de respuesta, distribuyendo las tareas de almacenamiento de manera inteligente y asegurando que ningún punto único se convierta en un cuello de botella.