Walrusのストレージソリューションを見ると、確かに少し違います。ほとんどの分散型ストレージプロジェクトは「複数コピーを作る」戦略を採っていますが、Walrusは別の道を歩んでいます——リード・リード・コードを使ってデータを断片化し、異なるノードに分散して保存します。



最も素晴らしいのは、十分な数の断片を集めれば、完全なデータを復元できることです。あるノードがダウンしても問題ありません。このアプローチにより、ストレージの冗長コストは数十倍、あるいは百倍以上から約4.5倍にまで削減されました。抽象的に聞こえるかもしれませんが、別の角度から考えると——これは数学とエンジニアリングを使って現実の経済的課題を解決しているのです。

派手な概念を追わず、実際の使用シーンで効率性を追求するこのような考え方は、Web3インフラストラクチャの中ではあまり見られません。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
WalletManagervip
· 5時間前
紅色訂正コードの仕組みはとっくに理解済みだ。4.5倍の冗長性?ノードの信頼性係数次第だ。さもなければ崩壊は早い。 コインを握りしめることこそが王道だ。 Walrusのアイデアは私のマルチシグウォレットのシャーディングロジックと似ている。オンチェーン分析によると、この種のプロジェクトは長期的に見て有望だ。 概念を吹聴するプロジェクトはたくさんあるが、ついにデータで語る勇気のあるものが出てきた。 ノード運営者が怠けるのを恐れている。フラグメントの復元コストを抑えられず、リスク係数もさらに圧縮しなければならない。 これこそ本当の価値投資の思考だ。虚構に走らず、私は全額賭ける。
原文表示返信0
DEXRobinHoodvip
· 5時間前
ああ、ついに誇張せずに直接仕事をするプロジェクトが出てきたね この数学的アイデアはちょっと褒めておきたい。4.5倍の冗長コストであの馬鹿な重複保存方案を一瞬で打ち負かす Red纠删码(レッドエラー訂正符号)は確かにすごいけど、その後のノードの安定性次第だね まあ、追いかける価値のある方向だと思う
原文表示返信0
OnchainDetectivevip
· 6時間前
ちょっと待って、これらの4.5倍の数字はどこから来たのか調べてみる必要があるね。オンチェーンのデータによると、「コスト最適化」を謳うプロジェクトのほとんどは最終的に期待通りの成果を出せていない...明らかに何か裏がある。 Walrusのこのレッドリカバリコードの方案は見た目は素晴らしいけど、僕が気になるのは——ノードのインセンティブメカニズムはどう設計されているのか?特定のウォレットアドレスが大量のストレージ権を集中管理しているケースはないのか?このモデルだと新たな中央集権リスクが生まれやすい。 確かに面白いけど、実際の運用データを検証してみないとね。ホワイトペーパーだけで判断しないようにしないと。 複数アドレスの追跡からわかるのは、Walrusのコア開発者のウォレットの流れだ...ちょっと背後の資金関係は複雑そうだ。 分析と判断の結果、この種の「破局者」プロジェクトで最も警戒すべきはインセンティブの歪みだね。ストレージノードにゾンビアドレスが山のように出てきたらどうするのか。 4.5倍のコストは聞こえは良いけど、実際の問題は——データの断片化が散らばった後、復元時の遅延がボトルネックにならないか?ホワイトペーパーにはこの点について触れていない。 とはいえ、このアイデアは確かに、毎日概念を吹聴しているプロジェクトよりも実用的だと思う...でもWeb3では、実用的すぎると逆に見落とされやすいんだよね。
原文表示返信0
PumpAnalystvip
· 6時間前
兄弟、Redundancy Codeのこの手法はかっこいいけど、4.5倍の冗長性で本当に耐えられるのか、それともまたPPTのプロジェクトで人を騙しているだけなのか 実際に動かしてみると冗長コストをこれほどまでに削減できるとは思わず、逆に少し心配になってきた。リスク管理はどこへ行ったのか 技術面は確かに素晴らしいが、メインネットのローンチ後に本当に耐えられるかどうかが重要だ。皆さん、資金調達のニュースに引きずられて高騰させられないように気をつけてください アイデアは悪くないと否定しないが、Web3のインフラは多くの失敗例もあるので、主要なノードの実際のパフォーマンスを注視してから参加するかどうかを決めるのが良い
原文表示返信0
FancyResearchLabvip
· 6時間前
おっと、誤り訂正コードのこの仕組みをちゃんと使う人がついに現れた。以前は主に「革命的なコンセンサスメカニズム」の宣伝ばかりだったが、今回はWalrusがしっかりと計算している——4.5倍の冗長性 vs 100倍の重複保存、数学は嘘をつかない。 --- 正直なところ、私はこういう虚飾のないのが好きだ。あの「めちゃくちゃかっこいい」名前のやつらはやめて、本当にコストを削減できる方法が王道だ。 --- 誤り訂正コードは素晴らしいね、以前はなぜ誰もこんな風にやらなかったのか…ああ、契約書を書いているときに頭がおかしくなって、また自分を閉じ込めてしまった。 --- ちょっと待って、これ本当に安定して動くのか?ノードが落ちてもデータを再構築できるのに問題はないのか? --- まあまあ、やっとちゃんとエンジニアリングに取り組むプロジェクトが出てきた。今の時代、これは貴重だ。 --- 断片の結合は簡単に聞こえるけど、実際に動かすとどうだろう?まずはこの数学の罠を試してみる。
原文表示返信0
  • ピン