Las noticias como la lista de Graylist y los rumores sobre Google ciertamente han agitado el mercado, pero si solo sigues la tendencia y persigues los temas de moda, es fácil caer en trampas. Últimamente he estado conversando con varios desarrolladores que trabajan en infraestructura, y solo así entendí que la verdadera lógica de inversión no está en estos mensajes superficiales, sino en qué problemas reales puede resolver un proyecto.
Tomemos como ejemplo Walrus, que parece ser solo un proyecto de almacenamiento, pero en realidad está haciendo algo que ha sido ignorado durante mucho tiempo en la pista DePIN: cerrar la brecha entre almacenamiento persistente y computación de alto rendimiento. Los esquemas tradicionales de almacenamiento descentralizado suelen ser buenos acumulando datos en frío, pero cuando se trata de escenarios con lectura y escritura de alta frecuencia y respuesta en tiempo real, su rendimiento se queda atrás. La estrategia de Walrus es diferente: desde el nivel de arquitectura, combina profundamente la estratificación del almacenamiento y la programación de la computación. En otras palabras, los datos no solo se almacenan, sino que también se pueden recuperar rápidamente.
Esto puede sonar a jerga técnica, pero los resultados son concretos. Solo hay que ver los datos de rendimiento en su red de prueba más reciente: bajo pruebas de alta concurrencia y carga continua, el tiempo de respuesta es más del 40% más bajo que soluciones similares. Esto no es solo una competencia por la "capacidad de almacenamiento", sino que están construyendo una autopista de datos de alta velocidad para aplicaciones descentralizadas.
¿Por qué esto es tan importante? Porque modelos de IA, renderizado en tiempo real y procesamiento de datos del Internet de las cosas, en el futuro, no podrán evitar la necesidad de respuesta en tiempo real y capacidad de flujo de datos. Cuando las aplicaciones en cadena tengan que manejar estos escenarios, deberán encontrar infraestructura que pueda satisfacer tanto la persistencia como la lectura y escritura de alta velocidad. Las instituciones que están haciendo movimientos discretos no se fijan en las fluctuaciones de precios a corto plazo, sino en esta barrera tecnológica difícil de replicar: quien construya primero esta infraestructura, tendrá la llave de las aplicaciones dApp y empresariales del futuro.
Actualmente, la mayoría de los competidores todavía compiten en métricas fáciles de imitar como la "capacidad de almacenamiento". La verdadera diferenciación está en la profundidad del diseño arquitectónico, y por eso algunos proyectos logran captar la atención de instituciones, mientras que otros solo sobreviven con marketing.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
5
Republicar
Compartir
Comentar
0/400
BackrowObserver
· hace3h
Otra vez una advertencia de "No persigas las tendencias, mira los fundamentos"... Sin embargo, realmente no había pensado en el punto de Walrus, la idea de acoplar almacenamiento + cálculo suena bastante interesante.
Ver originalesResponder0
ProofOfNothing
· hace3h
Otra vez esa historia de infraestructura... pero esta vez realmente hay algo de fondo, la idea de acoplar almacenamiento + cálculo parece que otros proyectos no han profundizado mucho en ella.
Ver originalesResponder0
AllInAlice
· hace3h
Ah, esto otra vez, un proyecto de almacenamiento presentado como una "ruptura tecnológica", la historia está muy bien contada.
Pero para ser honestos, esa cifra del 40% de optimización de retrasos suena bastante impresionante, pero lo realmente importante es si podrá soportar la red principal. Ahora la red de prueba funciona bien, pero cuando entre dinero real, es inevitable que haya problemas.
DePIN realmente es fácil de engañar, todos los días escuchando cosas como "innovación en la arquitectura" "foso económico", pero al final no es más que mantenerse vivo con la construcción del ecosistema y la operación de nodos... En fin, mejor esperar y ver cómo evoluciona.
Ver originalesResponder0
MEVHunterLucky
· hace3h
El optimizar un retraso del 40% suena impresionante, pero para apostar en la posición todavía hay que esperar a que hablen los datos de la mainnet. No todos los indicadores de las redes de prueba se pueden copiar al entorno de producción.
Ver originalesResponder0
BearMarketGardener
· hace3h
¿Es que nadie ha pensado en desacoplar almacenamiento y cálculo durante todos estos años? ¿O todos están compitiendo por el precio de la criptomoneda?
Las noticias como la lista de Graylist y los rumores sobre Google ciertamente han agitado el mercado, pero si solo sigues la tendencia y persigues los temas de moda, es fácil caer en trampas. Últimamente he estado conversando con varios desarrolladores que trabajan en infraestructura, y solo así entendí que la verdadera lógica de inversión no está en estos mensajes superficiales, sino en qué problemas reales puede resolver un proyecto.
Tomemos como ejemplo Walrus, que parece ser solo un proyecto de almacenamiento, pero en realidad está haciendo algo que ha sido ignorado durante mucho tiempo en la pista DePIN: cerrar la brecha entre almacenamiento persistente y computación de alto rendimiento. Los esquemas tradicionales de almacenamiento descentralizado suelen ser buenos acumulando datos en frío, pero cuando se trata de escenarios con lectura y escritura de alta frecuencia y respuesta en tiempo real, su rendimiento se queda atrás. La estrategia de Walrus es diferente: desde el nivel de arquitectura, combina profundamente la estratificación del almacenamiento y la programación de la computación. En otras palabras, los datos no solo se almacenan, sino que también se pueden recuperar rápidamente.
Esto puede sonar a jerga técnica, pero los resultados son concretos. Solo hay que ver los datos de rendimiento en su red de prueba más reciente: bajo pruebas de alta concurrencia y carga continua, el tiempo de respuesta es más del 40% más bajo que soluciones similares. Esto no es solo una competencia por la "capacidad de almacenamiento", sino que están construyendo una autopista de datos de alta velocidad para aplicaciones descentralizadas.
¿Por qué esto es tan importante? Porque modelos de IA, renderizado en tiempo real y procesamiento de datos del Internet de las cosas, en el futuro, no podrán evitar la necesidad de respuesta en tiempo real y capacidad de flujo de datos. Cuando las aplicaciones en cadena tengan que manejar estos escenarios, deberán encontrar infraestructura que pueda satisfacer tanto la persistencia como la lectura y escritura de alta velocidad. Las instituciones que están haciendo movimientos discretos no se fijan en las fluctuaciones de precios a corto plazo, sino en esta barrera tecnológica difícil de replicar: quien construya primero esta infraestructura, tendrá la llave de las aplicaciones dApp y empresariales del futuro.
Actualmente, la mayoría de los competidores todavía compiten en métricas fáciles de imitar como la "capacidad de almacenamiento". La verdadera diferenciación está en la profundidad del diseño arquitectónico, y por eso algunos proyectos logran captar la atención de instituciones, mientras que otros solo sobreviven con marketing.