Trong tư duy lưu trữ truyền thống, dữ liệu giống như một vật thể, phải đặt ở một nơi cụ thể. Khi nơi đó còn tồn tại, dữ liệu vẫn còn; khi nơi đó biến mất, dữ liệu cũng biến mất theo.



Walrus phá vỡ logic này. Nó sử dụng một phương án mang tính đột phá hơn — chia nhỏ một bản dữ liệu hoàn chỉnh. Bạn có thể thấy nó bị cắt thành 50 phần, 60 phần, thậm chí nhiều hơn nữa, rồi phân tán rải rác vào các nút mạng khác nhau.

Điều thú vị ở đây là: bạn hoàn toàn không cần phải tìm xem bản dữ liệu đầy đủ đó nằm ở đâu. Mạng sẽ tự động làm việc này. Chỉ cần bạn có thể thu thập đủ các mảnh nhỏ từ đủ nhiều nút — ví dụ như cần 20, 25 phần để ghép thành dữ liệu hoàn chỉnh — hệ thống sẽ có thể phục hồi lại thông tin gốc.

Điều này có vẻ là một chi tiết kỹ thuật, nhưng thực tế đã thay đổi khái niệm cốt lõi của lưu trữ. Dữ liệu không còn là một đối tượng cụ thể mà bạn có thể chỉ định, mà trở thành một dạng tồn tại theo thống kê.

Theo một góc nhìn khác, tiêu chuẩn tồn tại cũng đã thay đổi. Trước đây là đánh giá "có hoặc không có" theo kiểu nhị nguyên, giờ đây trở thành vấn đề xác suất của "tỷ lệ đủ hay không".

Ưu điểm lớn nhất của thiết kế này là gì? Bạn không còn phải lo lắng về sự sống còn của từng nút riêng lẻ nữa. Điều quan trọng thực sự là: toàn bộ mạng còn giữ lại được bao nhiêu mảnh nhỏ. Chỉ cần dữ liệu tổng thể đủ, mất vài nút cũng không thành vấn đề.

Nhưng trong thực tế cũng có một vấn đề không thể tránh khỏi. Khi mạng còn nhỏ, chỉ có hơn một trăm nút hoạt động, thì trọng lượng của mỗi nút sẽ bị phóng đại vô hạn. Mất 5 nút có thể còn ổn, nhưng nếu mất đột ngột 50 nút, rủi ro của hệ thống sẽ tăng vọt.

Vì vậy, Walrus không phải là một giải pháp vô địch. Thực ra, nó là dùng độ phức tạp của kiến trúc để đổi lấy khả năng mở rộng của mạng lưới.

Quan điểm của tôi về hệ thống này là: Trong giai đoạn quy mô nút còn nhỏ, nó thể hiện là một hệ thống có khả năng chịu lỗi cao nhưng cũng rất nhạy cảm; khi quy mô nút tăng lên, đạt đến hàng nghìn, đường cong an toàn của nó sẽ trở nên rất dốc.

Điều này không phải là nhược điểm, ngược lại chính là quy luật phát triển của nó. Giống như bất kỳ hệ thống phân tán nào, quy mô và an toàn thường đi đôi với nhau.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 7
  • Đăng lại
  • Retweed
Bình luận
0/400
defi_detectivevip
· 4giờ trước
Phá vỡ chính là hoàn chỉnh, xác suất chính là chân lý. Các nút sớm ít là một mối nguy hiểm, phải chờ mạng lưới lớn lên mới được.
Xem bản gốcTrả lời0
BoredStakervip
· 15giờ trước
Rủi ro của các nút sớm quá lớn, cảm giác như đang đánh bạc vậy
Xem bản gốcTrả lời0
WagmiWarriorvip
· 15giờ trước
Chết rồi Walrus, logic sắp xếp lại mảnh ghép này thật sự tuyệt vời hơn nhiều so với lưu trữ tập trung.
Xem bản gốcTrả lời0
SelfCustodyBrovip
· 15giờ trước
Ý tưởng này thật sự rất hay, lưu trữ phân tán dữ liệu đúng là bước đột phá. Nói thẳng ra là cược vào quy mô mạng lưới, giai đoạn đầu thật sự dễ gặp rủi ro. Logic lưu trữ phân mảnh này cảm giác có chút tương đồng với BFT. Rủi ro của Walrus thực chất là tính dễ tổn thương trong giai đoạn bootstrap, đây là cái bẫy mà tất cả các giao thức mới đều không thể tránh khỏi. Nhưng một khi số lượng nút đã đủ lớn, hệ thống này thực sự có khả năng chống chịu vượt trội so với lưu trữ tập trung. Chìa khóa vẫn là ai sẵn sàng chạy nút sớm, đó mới là thử thách thực sự. Người tham gia giai đoạn đầu thực sự phải chấp nhận rủi ro cao, nhưng phần thưởng cũng rất lớn.
Xem bản gốcTrả lời0
OnChainArchaeologistvip
· 15giờ trước
Thật tuyệt vời, đó chính là lý do tại sao mạng lưới ban đầu lại dễ tổn thương Lưu trữ phân mảnh nghe có vẻ đẹp đẽ, nhưng giai đoạn mạng nhỏ chính là một người thủy tinh Chờ đã, logic này có phải giống với mã xóa bỏ (erasure coding) không? Cảm giác rủi ro lớn nhất của Walrus hiện tại chính là quá ít nút Quy mô mới là yếu tố an toàn thực sự, không thể tránh khỏi
Xem bản gốcTrả lời0
ChainBrainvip
· 15giờ trước
这思路确实绝,就是早期风险有点大啊 --- 碎片化存储...听起来就是赌网络规模呗 --- 妙啊,数据存在从"有没有"变成了"够不够",换个维度想问题 --- 早期节点少的时候脆得要死,这不就是分布式系统的老毛病吗 --- 所以walrus现在就是在赌自己能活到数千节点是吧 --- 架构复杂性换增长空间...互联网产品都这套路 --- 单点失效不怕,集体宕机就完了,感觉没那么revolutionary啊 --- 等等,这跟erasure coding的思路差不多吧,只是换了个网络环境 --- 规模和安全相伴而生...听起来像是在给早期的风险找借口 --- 突然想到,这套东西对审查有什么影响吗,分散存储应该更难管控吧
Trả lời0
  • Ghim