ภายใต้กระแสนวัตกรรม EVM ใครคือผู้ชนะ?

โดย Siddharth Rao, IOSG Ventures

เกี่ยวกับประสิทธิภาพของ Ethereum Virtual Machine (EVM)

ทุกการดำเนินการบน Ethereum mainnet ต้องใช้ Gas จำนวนหนึ่ง หากเราคำนวณทั้งหมดที่จำเป็นในการเรียกใช้แอปพลิเคชันพื้นฐานบนเชน แอปจะล่ม หรือผู้ใช้จะล้มละลาย

สิ่งนี้ทำให้เกิด L2: OPRU แนะนำ collator เพื่อรวมธุรกรรมจำนวนมากก่อนที่จะยอมรับ mainnet สิ่งนี้ไม่เพียงแต่ช่วยให้แอปดำเนินการรักษาความปลอดภัยของ Ethereum เท่านั้น แต่ยังทำให้ผู้ใช้ได้รับประสบการณ์ที่ดีขึ้นอีกด้วย ผู้ใช้สามารถส่งธุรกรรมได้เร็วขึ้นและค่าธรรมเนียมถูกลง แม้ว่าการดำเนินการจะมีราคาถูกลง แต่ก็ยังใช้ EVM ดั้งเดิมเป็นเลเยอร์การดำเนินการ คล้ายกับ ZK Rollups, Scroll และ Polygon zkEVM ใช้หรือจะใช้วงจร zk ที่ใช้ EVM และ zk Proof จะถูกสร้างขึ้นในทุกธุรกรรมหรือธุรกรรมจำนวนมากที่ดำเนินการบนตัวพิสูจน์ แม้ว่าวิธีนี้จะช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชันแบบ "full-chain" ได้ แต่ก็ยังมีประสิทธิภาพและคุ้มค่าในการเรียกใช้แอปพลิเคชันประสิทธิภาพสูงหรือไม่

แอปพลิเคชั่นประสิทธิภาพสูงเหล่านี้คืออะไร?

เกม, หนังสือสั่งซื้อออนไลน์, โซเชียล Web3, การเรียนรู้ของเครื่อง, การสร้างแบบจำลองจีโนม ฯลฯ มาก่อน สิ่งเหล่านี้ล้วนต้องใช้การคำนวณสูงและมีค่าใช้จ่ายสูงในการทำงานบน L2 ปัญหาอีกประการหนึ่งของ EVM คือความเร็วและประสิทธิภาพการคำนวณไม่ดีเท่าระบบอื่นๆ ในปัจจุบัน เช่น SVM (Sealevel Virtual Machine)

แม้ว่า L3 EVM สามารถทำให้การคำนวณมีราคาถูกลง แต่โครงสร้างของ EVM เองอาจไม่ใช่วิธีที่ดีที่สุดในการคำนวณขั้นสูง เนื่องจากไม่สามารถคำนวณการทำงานแบบขนานได้ ทุกครั้งที่มีการสร้างเลเยอร์ใหม่ด้านบน เพื่อรักษาจิตวิญญาณของการกระจายอำนาจ จำเป็นต้องสร้างโครงสร้างพื้นฐานใหม่ (เครือข่ายโหนดใหม่) ซึ่งยังคงต้องการผู้ให้บริการจำนวนเท่าเดิมในการขยาย หรือโหนดชุดใหม่ทั้งหมด ผู้ให้บริการ (บุคคล/องค์กร) เพื่อจัดหาทรัพยากร หรือทั้งสองอย่างเป็นสิ่งจำเป็น

ดังนั้น เมื่อใดก็ตามที่มีการสร้างโซลูชันขั้นสูงขึ้น โครงสร้างพื้นฐานที่มีอยู่จะต้องได้รับการอัปเกรด หรือสร้างเลเยอร์ใหม่ทับ เพื่อแก้ปัญหานี้ เราจำเป็นต้องมีโครงสร้างพื้นฐานการประมวลผลประสิทธิภาพสูงที่มีความปลอดภัยหลังควอนตัม มีการกระจายอำนาจ ไม่ไว้วางใจ ซึ่งสามารถใช้อัลกอริทึมควอนตัมในการคำนวณสำหรับแอปพลิเคชันที่กระจายอำนาจได้อย่างแท้จริงและมีประสิทธิภาพ

Alt-L1 เช่น Solana, Sui และ Aptos สามารถดำเนินการแบบขนานได้ แต่เนื่องจากความเชื่อมั่นของตลาด การขาดสภาพคล่อง และการขาดนักพัฒนาในตลาด พวกเขาจะไม่ท้าทาย Ethereum เนื่องจากขาดความไว้วางใจ และคูน้ำที่สร้างขึ้นโดย Ethereum พร้อมเอฟเฟกต์เครือข่ายถือเป็นความสำเร็จครั้งสำคัญ จนถึงตอนนี้ยังไม่มี ETH/EVM killer คำถามคือ ทำไมการคำนวณทั้งหมดจึงควรอยู่บนเครือข่าย มีระบบการบังคับใช้ที่กระจายอำนาจและเชื่อถือได้เท่าเทียมกันหรือไม่? นี่คือสิ่งที่ระบบ DCompute สามารถทำได้

โครงสร้างพื้นฐาน DCompute ต้องกระจายศูนย์ ปลอดภัยหลังควอนตัม และไร้ความเชื่อถือ ไม่จำเป็นหรือไม่ควรเป็นเทคโนโลยีบล็อกเชน/การกระจาย แต่สิ่งสำคัญคือต้องตรวจสอบผลการคำนวณ การเปลี่ยนสถานะที่ถูกต้อง และการยืนยันขั้นสุดท้าย สำคัญ นี่คือวิธีการทำงานของห่วงโซ่ EVM ในขณะที่ยังคงรักษาความปลอดภัยและไม่สามารถเปลี่ยนแปลงได้ของเครือข่าย

สิ่งที่เราละเลยที่นี่เป็นหลักคือปัญหาของความพร้อมใช้งานของข้อมูล โพสต์นี้ไม่ได้มุ่งเน้นไปที่ความพร้อมใช้งานของข้อมูล เนื่องจากโซลูชันอย่าง Celestia และ EigenDA กำลังเคลื่อนไหวไปในทิศทางนี้แล้ว

1: ประมวลผลโดย Outsource เท่านั้น

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

(来源:แบบจำลองแบบออฟไลน์และแนวทางสู่การคำนวณแบบออฟไลน์, Jacob Eberhardt และ Jonathan Heiss)

2. การประมวลผลภายนอกและความพร้อมใช้งานของข้อมูล

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

(来源:แบบจำลองแบบออฟไลน์และแนวทางสู่การคำนวณแบบออฟไลน์, Jacob Eberhardt & Jonathan Heiss)

เมื่อเราเห็นแบบที่ 1 แสดงว่า zk-rollups ได้ทำสิ่งนี้แล้ว แต่ถูกจำกัดโดย EVM หรือจำเป็นต้องสอนชุดภาษา/คำสั่งใหม่ทั้งหมดให้กับนักพัฒนา ทางออกที่ดีควรมีประสิทธิภาพ ประสิทธิผล (ต้นทุนและทรัพยากร) กระจายอำนาจ เป็นส่วนตัว และตรวจสอบได้ สามารถสร้างการพิสูจน์ ZK บนเซิร์ฟเวอร์ AWS ได้ แต่จะไม่มีการกระจายอำนาจ โซลูชันเช่น Nillion และ Nexus กำลังพยายามแก้ปัญหาของการประมวลผลทั่วไปด้วยวิธีการกระจายอำนาจ แต่โซลูชันเหล่านี้ไม่สามารถตรวจสอบได้หากไม่มีการพิสูจน์ ZK

ประเภทที่ 2 รวมโมเดลการคำนวณแบบออฟไลน์เข้ากับเลเยอร์ความพร้อมใช้งานของข้อมูลที่ยังคงแยกจากกัน แต่การคำนวณยังคงต้องได้รับการยืนยันแบบออนไลน์

มาดูรูปแบบการประมวลผลแบบกระจายศูนย์ที่แตกต่างกันที่มีอยู่ในปัจจุบันซึ่งไม่น่าเชื่อถืออย่างสมบูรณ์และอาจไม่น่าเชื่อถืออย่างสมบูรณ์

การคำนวณทางเลือก

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

แผนที่เชิงนิเวศของ Ethereum Outsourcing Computing (ที่มา: IOSG Ventures)

  • การคำนวณวงล้อมที่ปลอดภัย/สภาพแวดล้อมการใช้งานที่เชื่อถือได้

TEE (Trusted Execution Environment) เปรียบเสมือนกล่องพิเศษภายในคอมพิวเตอร์หรือสมาร์ทโฟน มีแม่กุญแจและกุญแจเป็นของตัวเอง และมีเพียงบางโปรแกรม (เรียกว่าแอปพลิเคชันที่เชื่อถือได้) เท่านั้นที่สามารถเข้าถึงได้ เมื่อแอปพลิเคชันที่เชื่อถือได้เหล่านี้ทำงานภายใน TEE แอปพลิเคชันเหล่านั้นจะได้รับการปกป้องโดยโปรแกรมอื่นๆ และแม้แต่ระบบปฏิบัติการเอง

มันเหมือนกับที่ซ่อนลับที่มีเพื่อนพิเศษเพียงไม่กี่คนเท่านั้นที่สามารถเข้าไปได้ ตัวอย่างที่พบบ่อยที่สุดของ TEE คือ Secure Enclave ซึ่งมีอยู่ในอุปกรณ์ที่เราใช้ เช่น ชิป T1 ของ Apple และ SGX ของ Intel เพื่อดำเนินการที่สำคัญภายในอุปกรณ์ เช่น FaceID

เนื่องจาก TEE เป็นระบบแยก กระบวนการตรวจสอบความถูกต้องจึงไม่สามารถถูกบุกรุกได้ เนื่องจากสมมติฐานที่เชื่อถือได้ในการตรวจสอบสิทธิ์ ลองนึกถึงการมีประตูรักษาความปลอดภัยที่คุณเชื่อว่าปลอดภัยเพราะ Intel หรือ Apple เป็นผู้สร้างขึ้น แต่มีตัวทำลายความปลอดภัยเพียงพอในโลก (รวมถึงแฮ็กเกอร์และคอมพิวเตอร์อื่นๆ) ที่สามารถเจาะประตูรักษาความปลอดภัยนั้นได้ TEE ไม่ใช่ "ความปลอดภัยหลังควอนตัม" ซึ่งหมายความว่าคอมพิวเตอร์ควอนตัมที่มีทรัพยากรไม่จำกัดสามารถถอดรหัสความปลอดภัยของ TEE ได้ เมื่อคอมพิวเตอร์มีประสิทธิภาพมากขึ้นอย่างรวดเร็ว เราต้องสร้างระบบคอมพิวเตอร์ระยะยาวและโครงร่างการเข้ารหัสโดยคำนึงถึงความปลอดภัยภายหลังควอนตัม

  • การคำนวณหลายฝ่ายที่ปลอดภัย (SMPC)

SMPC (Secure Multi-Party Computing) เป็นโซลูชันคอมพิวเตอร์ที่รู้จักกันดีในอุตสาหกรรมเทคโนโลยี blockchain เวิร์กโฟลว์ทั่วไปในเครือข่าย SMPC จะประกอบด้วยสามส่วนต่อไปนี้:

ขั้นตอนที่ 1: แปลงอินพุตที่คำนวณเป็นการแชร์และแจกจ่ายระหว่างโหนด SMPC

ขั้นตอนที่ 2: ทำการคำนวณจริง ซึ่งโดยปกติจะเกี่ยวข้องกับการแลกเปลี่ยนข้อความระหว่างโหนด SMPC ในตอนท้ายของขั้นตอนนี้ แต่ละโหนดจะมีส่วนแบ่งของค่าเอาต์พุตที่คำนวณได้

ขั้นตอนที่ 3: ส่งการแชร์ผลลัพธ์ไปยังโหนดผลลัพธ์หนึ่งโหนดหรือมากกว่า ซึ่งรัน LSS (Secret Sharing Recovery Algorithm) เพื่อสร้างผลลัพธ์เอาต์พุตใหม่

ลองนึกภาพสายการผลิตรถยนต์ ซึ่งการสร้างและการผลิตส่วนประกอบของรถยนต์ (เครื่องยนต์ ประตู กระจก) ได้รับการว่าจ้างจากภายนอกให้กับผู้ผลิตอุปกรณ์ดั้งเดิม (OEM) (โหนดงาน) จากนั้นจะมีสายการประกอบที่ประกอบชิ้นส่วนทั้งหมดเข้าด้วยกัน เพื่อให้รถ (ส่งผลให้โหนด)

การแบ่งปันความลับมีความสำคัญต่อโมเดลการประมวลผลแบบกระจายศูนย์ที่รักษาความเป็นส่วนตัว วิธีนี้จะป้องกันไม่ให้ฝ่ายใดฝ่ายหนึ่งได้รับ "ความลับ" แบบเต็ม (อินพุตในกรณีนี้) และสร้างเอาต์พุตที่ผิดพลาดอย่างมุ่งร้าย SMPC น่าจะเป็นหนึ่งในระบบกระจายอำนาจที่ง่ายและปลอดภัยที่สุด แม้ว่าจะไม่มีรูปแบบการกระจายอำนาจอย่างสมบูรณ์ในปัจจุบัน แต่ก็เป็นไปได้อย่างมีเหตุผล

ผู้ให้บริการ MPC เช่น Sharemind ให้โครงสร้างพื้นฐาน MPC สำหรับการประมวลผล แต่ผู้ให้บริการยังคงรวมศูนย์ จะมั่นใจได้อย่างไรว่าเครือข่าย (หรือ Sharemind) ไม่เป็นอันตราย นี่คือที่มาของ zk proof และ zk verifiable

  • ไม่มีการคำนวณข้อความ (NMC)

NMC เป็นวิธีการคำนวณแบบกระจายแบบใหม่ที่พัฒนาโดยทีม Nillion เป็นเวอร์ชันอัปเกรดของ MPC โดยที่โหนดไม่จำเป็นต้องสื่อสารโดยการโต้ตอบผ่านผลลัพธ์ ในการทำเช่นนี้ พวกเขาใช้การเข้ารหัสแบบดั้งเดิมที่เรียกว่า One-Time Masking ซึ่งใช้ชุดของตัวเลขสุ่มที่เรียกว่าปัจจัยที่ทำให้ไม่เห็นเพื่อปกปิดความลับ ซึ่งคล้ายกับการเติมครั้งเดียว OTM มุ่งหวังที่จะให้ความถูกต้องในลักษณะที่มีประสิทธิภาพ ซึ่งหมายความว่าโหนด NMC ไม่จำเป็นต้องแลกเปลี่ยนข้อความใดๆ เพื่อดำเนินการคำนวณ ซึ่งหมายความว่า NMC จะไม่มีปัญหาความสามารถในการปรับขนาดของ SMPC

  • การคำนวณแบบ Zero-Knowledge ที่ตรวจสอบได้

ZK Verifiable Computation (ZK Verifiable Computation) คือการสร้างการพิสูจน์ความรู้เป็นศูนย์สำหรับชุดอินพุตและฟังก์ชัน และเพื่อพิสูจน์ว่าการคำนวณใดๆ ที่ดำเนินการโดยระบบจะดำเนินการอย่างถูกต้อง แม้ว่าการคำนวณการยืนยัน ZK จะเป็นเรื่องใหม่ แต่ก็เป็นส่วนสำคัญอย่างยิ่งของแผนงานขยายเครือข่าย Ethereum

ZK พิสูจน์ว่ามีรูปแบบการใช้งานที่หลากหลาย (ดังแสดงในรูปด้านล่าง ตามสรุปในเอกสาร "Off-Chaining_Models"):

ใครคือผู้ชนะภายใต้นวัตกรรม EVM? (ที่มา: IOSG Ventures, Off-chaining Models and Approaches to Off-chain Computations, Jacob Eberhardt & Jonathan Heiss)

ข้างต้นเรามีความเข้าใจพื้นฐานเกี่ยวกับการนำการพิสูจน์ zk ไปใช้ ดังนั้นเงื่อนไขในการใช้การพิสูจน์ ZK เพื่อตรวจสอบการคำนวณคืออะไร

  • ก่อนอื่น เราต้องเลือก Proof Primitive ก่อน Proof Primitive ในอุดมคติมีต้นทุนต่ำในการสร้าง Proof ไม่ต้องใช้หน่วยความจำสูง และตรวจสอบได้ง่าย
  • ประการที่สอง เลือกวงจร zk ที่ออกแบบมาเพื่อสร้างหลักฐานเชิงคำนวณของสิ่งดั้งเดิมข้างต้น
  • สุดท้าย ในระบบคอมพิวเตอร์/เครือข่าย ฟังก์ชันที่กำหนดจะถูกคำนวณบนอินพุตที่ให้มาและเอาต์พุตจะได้รับ

ภาวะที่กลืนไม่เข้าคายไม่ออกของนักพัฒนา - พิสูจน์ปัญหาที่กลืนไม่เข้าคายไม่ออกด้านประสิทธิภาพ

อีกอย่างที่ต้องบอกคือเกณฑ์สำหรับการสร้างวงจรนั้นยังสูงมาก มันไม่ง่ายเลยสำหรับนักพัฒนาในการเรียนรู้ Solidity ตอนนี้นักพัฒนาจำเป็นต้องเรียนรู้ Circom เพื่อสร้างวงจรหรือเรียนรู้ภาษาโปรแกรมเฉพาะ (เช่น ไคโร) การสร้าง zk-apps ดูเหมือนจะเป็นเรื่องไกลตัว

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

จากสถิติข้างต้น **การทำให้สภาพแวดล้อม Web3 เหมาะสมสำหรับการพัฒนาดูเหมือนจะยั่งยืนกว่าการนำนักพัฒนาเข้าสู่สภาพแวดล้อมการพัฒนา Web3 ใหม่ **

หาก ZK คืออนาคตของ Web3 และแอปพลิเคชัน Web3 จำเป็นต้องสร้างขึ้นโดยใช้ทักษะของนักพัฒนาที่มีอยู่ วงจร ZK จำเป็นต้องได้รับการออกแบบในลักษณะที่รองรับการคำนวณที่ดำเนินการโดยอัลกอริทึมที่เขียนในภาษาต่างๆ เช่น Java หรือ Rust เพื่อสร้างการพิสูจน์ .

โซลูชันดังกล่าวมีอยู่จริง และฉันนึกถึงสองทีม: RiscZero และ Lurk Labs ทั้งสองทีมมีวิสัยทัศน์ที่คล้ายคลึงกันคืออนุญาตให้นักพัฒนาสร้าง zk-apps โดยไม่ต้องผ่านช่วงการเรียนรู้ที่สูงชัน

ยังคงเป็นวันแรกสำหรับ Lurk Labs แต่ทีมงานได้ทำงานในโครงการนี้มาเป็นเวลานาน พวกเขามุ่งเน้นไปที่การสร้าง Nova Proofs ผ่านวงจรเอนกประสงค์ การพิสูจน์ Nova ถูกเสนอโดย Abhiram Kothapalli จาก Carnegie Mellon University และ Srinath Setty จาก Microsoft Research และ Ioanna Tziallae จาก New York University เมื่อเปรียบเทียบกับระบบ SNARK อื่น ๆ แล้ว Nova พิสูจน์ให้เห็นว่ามีข้อได้เปรียบพิเศษในการประมวลผลส่วนเพิ่มที่ตรวจสอบได้ (IVC) Incremental Verifiable Computation (IVC) เป็นแนวคิดในวิทยาการคอมพิวเตอร์และการเข้ารหัสที่มีจุดมุ่งหมายเพื่อให้สามารถตรวจสอบความถูกต้องของการคำนวณได้โดยไม่ต้องคำนวณใหม่ทั้งหมดตั้งแต่เริ่มต้น การพิสูจน์ต้องได้รับการปรับให้เหมาะสมสำหรับ IVC เมื่อเวลาในการคำนวณยาวนานและซับซ้อน

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

ความสวยงามของการออกแบบเครือข่ายบอนไซคือการคำนวณสามารถเริ่มต้น ตรวจสอบ และส่งออกทั้งหมดบนเครือข่ายได้ ทั้งหมดนี้ฟังดูเหมือนอยู่ในอุดมคติ แต่การพิสูจน์ของ STARK ก็นำมาซึ่งปัญหาเช่นกัน ค่าใช้จ่ายในการตรวจสอบสูงเกินไป

การพิสูจน์ Nova ดูเหมือนจะเหมาะสมอย่างยิ่งสำหรับการคำนวณซ้ำๆ (รูปแบบการพับนั้นคุ้มค่า) และการคำนวณขนาดเล็ก ซึ่งอาจทำให้ Lurk เป็นโซลูชันที่ดีสำหรับการตรวจสอบการอนุมาน ML

###ใครคือผู้ชนะ?

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

ใครคือผู้ชนะภายใต้นวัตกรรม EVM?

(ที่มา: IOSG Ventures)

ระบบ zk-SNARK บางระบบต้องการกระบวนการตั้งค่าที่เชื่อถือได้ในระหว่างขั้นตอนการตั้งค่าเริ่มต้น โดยสร้างชุดพารามิเตอร์เริ่มต้น ข้อสันนิษฐานของความน่าเชื่อถือที่นี่คือการตั้งค่าที่เชื่อถือได้นั้นดำเนินการอย่างตรงไปตรงมา โดยไม่มีพฤติกรรมที่เป็นอันตรายหรือการดัดแปลงใด ๆ หากถูกโจมตี อาจนำไปสู่การสร้างหลักฐานที่ไม่ถูกต้อง

การพิสูจน์ของ STARK ถือว่าความปลอดภัยของการทดสอบลำดับต่ำสำหรับการตรวจสอบคุณสมบัติลำดับต่ำของพหุนาม พวกเขายังถือว่าฟังก์ชันแฮชทำงานเหมือนออราเคิลแบบสุ่ม

การใช้งานทั้งสองระบบอย่างเหมาะสมถือเป็นข้อสันนิษฐานด้านความปลอดภัย

เครือข่าย SMPC ขึ้นอยู่กับสิ่งต่อไปนี้:

*ผู้เข้าร่วม SMPC สามารถรวมผู้เข้าร่วมที่ "ซื่อสัตย์แต่อยากรู้อยากเห็น" ที่สามารถพยายามเข้าถึงข้อมูลพื้นฐานใดๆ ได้โดยการสื่อสารกับโหนดอื่นๆ *ความปลอดภัยของเครือข่าย SMPC ขึ้นอยู่กับสมมติฐานว่าผู้เข้าร่วมดำเนินการโปรโตคอลอย่างถูกต้อง และไม่จงใจแนะนำข้อผิดพลาดหรือพฤติกรรมที่เป็นอันตราย

  • โปรโตคอล SMPC บางตัวอาจต้องใช้ขั้นตอนการตั้งค่าที่เชื่อถือได้เพื่อสร้างพารามิเตอร์ที่เข้ารหัสหรือค่าเริ่มต้น สมมติฐานความน่าเชื่อถือที่นี่คือการตั้งค่าที่เชื่อถือได้นั้นบังคับใช้อย่างตรงไปตรงมา
  • เช่นเดียวกับเครือข่าย SMPC สมมติฐานด้านความปลอดภัยยังคงเหมือนเดิม แต่เนื่องจากมี OTM (Off-The-Grid Multi-party Computation) จึงไม่มีผู้เข้าร่วมที่ "ซื่อสัตย์แต่อยากรู้อยากเห็น"

OTM เป็นโปรโตคอลการคำนวณหลายฝ่ายที่ออกแบบมาเพื่อปกป้องความเป็นส่วนตัวของผู้เข้าร่วม ได้รับการคุ้มครองความเป็นส่วนตัวโดยทำให้ผู้เข้าร่วมไม่ต้องเปิดเผยข้อมูลที่ป้อนเข้าในการคำนวณ ดังนั้นผู้เข้าร่วมที่ "ซื่อสัตย์แต่อยากรู้อยากเห็น" จะไม่มีอยู่จริง เนื่องจากพวกเขาจะไม่สามารถสื่อสารกับโหนดอื่นเพื่อพยายามเข้าถึงข้อมูลพื้นฐานได้

มีผู้ชนะที่ชัดเจนหรือไม่ เราไม่รู้ แต่แต่ละวิธีก็มีข้อดีในตัวเอง แม้ว่า NMC จะดูเหมือนอัปเกรดเป็น SMPC อย่างชัดเจน แต่เครือข่ายนี้ยังไม่ได้ใช้งานจริงหรือทดสอบการต่อสู้

ประโยชน์ของการใช้การคำนวณที่ตรวจสอบได้ของ ZK คือมีความปลอดภัยและรักษาความเป็นส่วนตัว แต่ไม่มีการแบ่งปันความลับในตัว ความไม่สมมาตรระหว่างการสร้างการพิสูจน์และการทวนสอบทำให้เป็นแบบจำลองที่เหมาะสำหรับการคำนวณจากภายนอกที่ตรวจสอบได้ หากระบบใช้การคำนวณแบบ zk-proof คอมพิวเตอร์ (หรือโหนดเดียว) จะต้องมีประสิทธิภาพมากในการคำนวณจำนวนมาก ในการเปิดใช้งานการแชร์โหลดและการสร้างสมดุลในขณะที่รักษาความเป็นส่วนตัว จะต้องมีการแชร์แบบลับ ในกรณีนี้ สามารถรวมระบบอย่าง SMPC หรือ NMC กับตัวสร้าง zk อย่าง Lurk หรือ RiscZero เพื่อสร้างโครงสร้างพื้นฐานการประมวลผลแบบเอาท์ซอร์สแบบกระจายตรวจสอบที่ทรงพลังได้

สิ่งนี้มีความสำคัญมากขึ้นในปัจจุบันที่เครือข่าย MPC/SMPC นั้นรวมศูนย์ ผู้ให้บริการ MPC รายใหญ่ที่สุดในขณะนี้คือ Sharemind และชั้นการตรวจสอบ ZK ที่อยู่ด้านบนสามารถพิสูจน์ได้ว่ามีประโยชน์ รูปแบบเศรษฐกิจของเครือข่าย MPC แบบกระจายอำนาจยังไม่ได้ผล ตามทฤษฎีแล้ว โหมด NMC เป็นการอัปเกรดระบบ MPC แต่เรายังไม่เห็นความสำเร็จ

ในการแข่งขันเพื่อแผนการพิสูจน์ ZK อาจไม่มีสถานการณ์แบบผู้ชนะทั้งหมด วิธีการพิสูจน์แต่ละวิธีได้รับการปรับให้เหมาะสมสำหรับการคำนวณประเภทใดประเภทหนึ่ง และไม่มีใครเหมาะกับแบบจำลองทุกประเภท มีงานคำนวณหลายประเภท และยังขึ้นอยู่กับการแลกเปลี่ยนระหว่างนักพัฒนาที่ทำกับระบบพิสูจน์แต่ละระบบ ผู้เขียนเชื่อว่าทั้งระบบที่ใช้ STARK และระบบที่ใช้ SNARK และการเพิ่มประสิทธิภาพในอนาคตนั้นมีที่มาที่อนาคตของ ZK

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด