TEE (Trusted Execution Environment) เปรียบเสมือนกล่องพิเศษภายในคอมพิวเตอร์หรือสมาร์ทโฟน มีแม่กุญแจและกุญแจเป็นของตัวเอง และมีเพียงบางโปรแกรม (เรียกว่าแอปพลิเคชันที่เชื่อถือได้) เท่านั้นที่สามารถเข้าถึงได้ เมื่อแอปพลิเคชันที่เชื่อถือได้เหล่านี้ทำงานภายใน TEE แอปพลิเคชันเหล่านั้นจะได้รับการปกป้องโดยโปรแกรมอื่นๆ และแม้แต่ระบบปฏิบัติการเอง
มันเหมือนกับที่ซ่อนลับที่มีเพื่อนพิเศษเพียงไม่กี่คนเท่านั้นที่สามารถเข้าไปได้ ตัวอย่างที่พบบ่อยที่สุดของ TEE คือ Secure Enclave ซึ่งมีอยู่ในอุปกรณ์ที่เราใช้ เช่น ชิป T;1 ของ Apple และ SGX ของ Intel เพื่อดำเนินการที่สำคัญภายในอุปกรณ์ เช่น FaceID
เนื่องจาก TEE เป็นระบบแยก กระบวนการตรวจสอบความถูกต้องจึงไม่สามารถถูกบุกรุกได้เนื่องจากสมมติฐานที่เชื่อถือได้ในการตรวจสอบสิทธิ์ ลองนึกถึงการมีประตูนิรภัยที่คุณเชื่อว่าปลอดภัยเพราะ Intel หรือ Apple เป็นผู้สร้างขึ้น แต่มีตัวทำลายความปลอดภัยเพียงพอในโลก (รวมถึงแฮ็กเกอร์และคอมพิวเตอร์อื่นๆ) ที่สามารถเจาะประตูรักษาความปลอดภัยนั้นได้ TEE ไม่ใช่ "ความปลอดภัยหลังควอนตัม" ซึ่งหมายความว่าคอมพิวเตอร์ควอนตัมที่มีทรัพยากรไม่จำกัดสามารถถอดรหัสความปลอดภัยของ TEE ได้ เมื่อคอมพิวเตอร์มีประสิทธิภาพมากขึ้นอย่างรวดเร็ว เราต้องสร้างระบบคอมพิวเตอร์ระยะยาวและโครงร่างการเข้ารหัสโดยคำนึงถึงความปลอดภัยภายหลังควอนตัม
สรุปแล้ว Nova Proofs ดูเหมือนจะเป็นระบบพิสูจน์ต้นฉบับที่ยอดเยี่ยม ในขณะที่ข้อเสียของพวกเขาคือขนาดของการพิสูจน์จะเพิ่มขึ้นเป็นเส้นตรงตามขนาดของการคำนวณ ในทางกลับกัน การพิสูจน์ของ Nova จะมีที่ว่างสำหรับการบีบอัดเพิ่มเติม
ความสวยงามของการออกแบบเครือข่ายบอนไซคือการคำนวณสามารถเริ่มต้น ตรวจสอบ และส่งออกทั้งหมดบนเครือข่ายได้ ทั้งหมดนี้ฟังดูเหมือนอยู่ในอุดมคติ แต่การพิสูจน์ของ STARK ก็นำมาซึ่งปัญหาเช่นกัน ค่าใช้จ่ายในการตรวจสอบสูงเกินไป
การพิสูจน์ Nova ดูเหมือนจะเหมาะสมอย่างยิ่งสำหรับการคำนวณซ้ำๆ (รูปแบบการพับนั้นคุ้มค่า) และการคำนวณขนาดเล็ก ซึ่งอาจทำให้ Lurk เป็นโซลูชันที่ดีสำหรับการตรวจสอบการอนุมาน ML
การพิสูจน์ของ STARK ถือว่าความปลอดภัยของการทดสอบลำดับต่ำสำหรับการตรวจสอบคุณสมบัติลำดับต่ำของพหุนาม พวกเขายังถือว่าฟังก์ชันแฮชทำงานเหมือนออราเคิลแบบสุ่ม
IOSG Ventures: หนทางสู่นวัตกรรมที่ปลดปล่อยประสิทธิภาพของ Ethereum และก้าวข้ามคอขวดของ EVM
ผู้เขียนต้นฉบับ: Siddharth Rao, IOSG Ventures
ขอขอบคุณเป็นพิเศษสำหรับ John Burnham จาก Lurk Labs สำหรับความคิดเห็นและคำแนะนำที่มีค่าเกี่ยวกับบทความนี้
เกี่ยวกับประสิทธิภาพของ Ethereum Virtual Machine (EVM)
ทุกการดำเนินการบน Ethereum mainnet ต้องใช้ Gas จำนวนหนึ่ง หากเราคำนวณทั้งหมดที่จำเป็นในการเรียกใช้แอปพลิเคชันพื้นฐานบนเชน แอปจะล่ม หรือผู้ใช้จะล้มละลาย
สิ่งนี้ทำให้เกิด L2: OPRU แนะนำ collator เพื่อรวมธุรกรรมจำนวนมากก่อนที่จะยอมรับ mainnet สิ่งนี้ไม่เพียงแต่ช่วยให้แอปดำเนินการรักษาความปลอดภัยของ Ethereum เท่านั้น แต่ยังทำให้ผู้ใช้ได้รับประสบการณ์ที่ดีขึ้นอีกด้วย ผู้ใช้สามารถส่งธุรกรรมได้เร็วขึ้นและค่าธรรมเนียมถูกลง แม้ว่าการดำเนินการจะมีราคาถูกลง แต่ก็ยังใช้ EVM ดั้งเดิมเป็นเลเยอร์การดำเนินการ คล้ายกับ ZK Rollups, Scroll และ Polygon zkEVM ใช้หรือจะใช้วงจร zk ที่ใช้ EVM และ zk Proof จะถูกสร้างขึ้นในทุกธุรกรรมหรือธุรกรรมจำนวนมากที่ดำเนินการบนตัวพิสูจน์ แม้ว่าสิ่งนี้จะช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชัน "บนเครือข่าย" ได้ การเรียกใช้แอปพลิเคชันประสิทธิภาพสูงยังคงมีประสิทธิภาพและคุ้มค่าอยู่หรือไม่
แอปพลิเคชั่นประสิทธิภาพสูงเหล่านี้คืออะไร?
เกม, หนังสือสั่งซื้อออนไลน์, โซเชียล Web3, การเรียนรู้ของเครื่อง, การสร้างแบบจำลองจีโนม ฯลฯ มาก่อน สิ่งเหล่านี้ล้วนต้องใช้การคำนวณสูงและมีค่าใช้จ่ายสูงในการทำงานบน L2 ปัญหาอีกประการหนึ่งของ EVM คือความเร็วและประสิทธิภาพการคำนวณไม่ดีเท่าระบบอื่นๆ ในปัจจุบัน เช่น SVM (Sealevel Virtual Machine)
แม้ว่า L3 EVM สามารถทำให้การคำนวณมีราคาถูกลง แต่โครงสร้างของ EVM เองอาจไม่ใช่วิธีที่ดีที่สุดในการคำนวณขั้นสูง เนื่องจากไม่สามารถคำนวณการทำงานแบบขนานได้ ทุกครั้งที่มีการสร้างเลเยอร์ใหม่ด้านบน เพื่อรักษาจิตวิญญาณของการกระจายอำนาจ จำเป็นต้องสร้างโครงสร้างพื้นฐานใหม่ (เครือข่ายโหนดใหม่) ซึ่งยังคงต้องการผู้ให้บริการจำนวนเท่าเดิมในการขยาย หรือโหนดชุดใหม่ทั้งหมด ผู้ให้บริการ (บุคคล/องค์กร) เพื่อจัดหาทรัพยากร หรือทั้งสองอย่างเป็นสิ่งจำเป็น
ดังนั้น เมื่อใดก็ตามที่มีการสร้างโซลูชันขั้นสูงขึ้น โครงสร้างพื้นฐานที่มีอยู่จะต้องได้รับการอัปเกรด หรือสร้างเลเยอร์ใหม่ทับ เพื่อแก้ปัญหานี้ เราจำเป็นต้องมีโครงสร้างพื้นฐานการประมวลผลประสิทธิภาพสูงที่มีความปลอดภัยหลังควอนตัม มีการกระจายอำนาจ ไม่ไว้วางใจ ซึ่งสามารถใช้อัลกอริทึมควอนตัมในการคำนวณสำหรับแอปพลิเคชันที่กระจายอำนาจได้อย่างแท้จริงและมีประสิทธิภาพ
Alt-L1 เช่น Solana, Sui และ Aptos สามารถดำเนินการแบบขนานได้ แต่เนื่องจากความเชื่อมั่นของตลาด การขาดสภาพคล่อง และการขาดนักพัฒนาในตลาด พวกเขาจะไม่ท้าทาย Ethereum เนื่องจากขาดความไว้วางใจ และคูน้ำที่สร้างขึ้นโดย Ethereum พร้อมเอฟเฟกต์เครือข่ายถือเป็นความสำเร็จครั้งสำคัญ จนถึงตอนนี้ยังไม่มี ETH/EVM killer คำถามคือ ทำไมการคำนวณทั้งหมดจึงควรอยู่บนเครือข่าย มีระบบการบังคับใช้ที่กระจายอำนาจและเชื่อถือได้เท่าเทียมกันหรือไม่? นี่คือสิ่งที่ระบบ DCompute สามารถทำได้
โครงสร้างพื้นฐาน DCompute ต้องกระจายศูนย์ ปลอดภัยหลังควอนตัม และไร้ความเชื่อถือ ไม่จำเป็นหรือไม่ควรเป็นเทคโนโลยีบล็อกเชน/การกระจาย แต่สิ่งสำคัญคือต้องตรวจสอบผลการคำนวณ การเปลี่ยนสถานะที่ถูกต้อง และการยืนยันขั้นสุดท้าย สำคัญ นี่คือวิธีการทำงานของห่วงโซ่ EVM ในขณะที่ยังคงรักษาความปลอดภัยและไม่สามารถเปลี่ยนแปลงได้ของเครือข่าย
สิ่งที่เราละเลยที่นี่เป็นหลักคือปัญหาของความพร้อมใช้งานของข้อมูล โพสต์นี้ไม่ได้มุ่งเน้นไปที่ความพร้อมใช้งานของข้อมูล เนื่องจากโซลูชันอย่าง Celestia และ EigenDA กำลังเคลื่อนไหวไปในทิศทางนี้แล้ว
1: เฉพาะการประมวลผลภายนอก
( 来源:โมเดลแบบออฟไลน์และแนวทางสู่การคำนวณแบบออฟไลน์, Jacob Eberhardt & Jonathan Heiss)
( 来源:โมเดลแบบออฟไลน์และแนวทางสู่การคำนวณแบบออฟไลน์, Jacob Eberhardt & Jonathan Heiss)
เมื่อเราเห็นแบบที่ 1 แสดงว่า zk-rollups กำลังทำสิ่งนี้อยู่แล้ว แต่ถูกจำกัดโดย EVM หรือจำเป็นต้องสอนชุดภาษา/คำสั่งใหม่ทั้งหมดให้กับนักพัฒนา ทางออกที่ดีควรมีประสิทธิภาพ ประสิทธิผล (ต้นทุนและทรัพยากร) กระจายอำนาจ เป็นส่วนตัว และตรวจสอบได้ สามารถสร้างการพิสูจน์ ZK บนเซิร์ฟเวอร์ AWS ได้ แต่จะไม่มีการกระจายอำนาจ โซลูชันเช่น Nillion และ Nexus กำลังพยายามแก้ปัญหาของการประมวลผลทั่วไปด้วยวิธีการกระจายอำนาจ แต่โซลูชันเหล่านี้ไม่สามารถตรวจสอบได้หากไม่มีการพิสูจน์ ZK
ประเภทที่ 2 รวมโมเดลการคำนวณแบบออฟไลน์เข้ากับเลเยอร์ความพร้อมใช้งานของข้อมูลที่ยังคงแยกจากกัน แต่การคำนวณยังคงต้องได้รับการยืนยันแบบออนไลน์
มาดูรูปแบบการประมวลผลแบบกระจายศูนย์ที่แตกต่างกันที่มีอยู่ในปัจจุบันซึ่งไม่น่าเชื่อถืออย่างสมบูรณ์และอาจไม่น่าเชื่อถืออย่างสมบูรณ์
ทางเลือก การคำนวณ s
แผนที่เชิงนิเวศของ Ethereum Outsourced Computing (ที่มา: IOSG Ventures)
การคำนวณวงล้อมที่ปลอดภัย / สภาพแวดล้อมการดำเนินการที่เชื่อถือได้
TEE (Trusted Execution Environment) เปรียบเสมือนกล่องพิเศษภายในคอมพิวเตอร์หรือสมาร์ทโฟน มีแม่กุญแจและกุญแจเป็นของตัวเอง และมีเพียงบางโปรแกรม (เรียกว่าแอปพลิเคชันที่เชื่อถือได้) เท่านั้นที่สามารถเข้าถึงได้ เมื่อแอปพลิเคชันที่เชื่อถือได้เหล่านี้ทำงานภายใน TEE แอปพลิเคชันเหล่านั้นจะได้รับการปกป้องโดยโปรแกรมอื่นๆ และแม้แต่ระบบปฏิบัติการเอง
มันเหมือนกับที่ซ่อนลับที่มีเพื่อนพิเศษเพียงไม่กี่คนเท่านั้นที่สามารถเข้าไปได้ ตัวอย่างที่พบบ่อยที่สุดของ TEE คือ Secure Enclave ซึ่งมีอยู่ในอุปกรณ์ที่เราใช้ เช่น ชิป T;1 ของ Apple และ SGX ของ Intel เพื่อดำเนินการที่สำคัญภายในอุปกรณ์ เช่น FaceID
เนื่องจาก TEE เป็นระบบแยก กระบวนการตรวจสอบความถูกต้องจึงไม่สามารถถูกบุกรุกได้เนื่องจากสมมติฐานที่เชื่อถือได้ในการตรวจสอบสิทธิ์ ลองนึกถึงการมีประตูนิรภัยที่คุณเชื่อว่าปลอดภัยเพราะ Intel หรือ Apple เป็นผู้สร้างขึ้น แต่มีตัวทำลายความปลอดภัยเพียงพอในโลก (รวมถึงแฮ็กเกอร์และคอมพิวเตอร์อื่นๆ) ที่สามารถเจาะประตูรักษาความปลอดภัยนั้นได้ TEE ไม่ใช่ "ความปลอดภัยหลังควอนตัม" ซึ่งหมายความว่าคอมพิวเตอร์ควอนตัมที่มีทรัพยากรไม่จำกัดสามารถถอดรหัสความปลอดภัยของ TEE ได้ เมื่อคอมพิวเตอร์มีประสิทธิภาพมากขึ้นอย่างรวดเร็ว เราต้องสร้างระบบคอมพิวเตอร์ระยะยาวและโครงร่างการเข้ารหัสโดยคำนึงถึงความปลอดภัยภายหลังควอนตัม
การคำนวณหลายฝ่ายที่ปลอดภัย (SMPC)
SMPC (Secure Multi-Party Computation) ยังเป็นโซลูชันคอมพิวเตอร์ที่รู้จักกันดีในอุตสาหกรรมเทคโนโลยี blockchain เวิร์กโฟลว์ทั่วไปในเครือข่าย SMPC จะประกอบด้วยสามส่วนต่อไปนี้:
ลองนึกภาพสายการผลิตรถยนต์ ซึ่งการสร้างและการผลิตส่วนประกอบของรถยนต์ (เครื่องยนต์ ประตู กระจก) ได้รับการว่าจ้างจากภายนอกให้กับผู้ผลิตอุปกรณ์ดั้งเดิม (OEM) (โหนดงาน) จากนั้นจะมีสายการประกอบที่ประกอบชิ้นส่วนทั้งหมดเข้าด้วยกัน เพื่อให้รถ (ส่งผลให้โหนด)
การแบ่งปันความลับมีความสำคัญต่อโมเดลการประมวลผลแบบกระจายศูนย์ที่รักษาความเป็นส่วนตัว วิธีนี้จะป้องกันไม่ให้ฝ่ายใดฝ่ายหนึ่งได้รับ "ความลับ" แบบเต็ม (อินพุตในกรณีนี้) และสร้างผลลัพธ์ที่ผิดพลาดอย่างมุ่งร้าย SMPC น่าจะเป็นหนึ่งในระบบกระจายอำนาจที่ง่ายและปลอดภัยที่สุด แม้ว่าจะไม่มีรูปแบบการกระจายอำนาจอย่างสมบูรณ์ในปัจจุบัน แต่ก็เป็นไปได้อย่างมีเหตุผล
ผู้ให้บริการ MPC เช่น Sharemind จัดเตรียมโครงสร้างพื้นฐาน MPC สำหรับการประมวลผล แต่ผู้ให้บริการยังคงรวมศูนย์ จะมั่นใจได้อย่างไรว่าจะเป็นส่วนตัว, จะแน่ใจได้อย่างไรว่าเครือข่าย (หรือ Sharemind) ไม่กระทำการที่มุ่งร้าย นี่คือที่มาของ zk proofs และ zk verifiable computation
การคำนวณข้อความไม่มี (NMC)
NMC เป็นวิธีการคำนวณแบบกระจายแบบใหม่ที่พัฒนาโดยทีม Nillion เป็นเวอร์ชันอัปเกรดของ MPC โดยที่โหนดไม่จำเป็นต้องสื่อสารโดยการโต้ตอบผ่านผลลัพธ์ ในการทำเช่นนี้ พวกเขาใช้การเข้ารหัสแบบดั้งเดิมที่เรียกว่า One-Time Masking ซึ่งใช้ชุดของตัวเลขสุ่มที่เรียกว่าปัจจัยที่ทำให้ไม่เห็นเพื่อปกปิดความลับ ซึ่งคล้ายกับการเติมครั้งเดียว OTM มุ่งหวังที่จะให้ความถูกต้องในลักษณะที่มีประสิทธิภาพ ซึ่งหมายความว่าโหนด NMC ไม่จำเป็นต้องแลกเปลี่ยนข้อความใดๆ เพื่อดำเนินการคำนวณ ซึ่งหมายความว่า NMC ไม่มีปัญหาความสามารถในการปรับขนาดของ SMPC
การคำนวณที่ตรวจสอบได้โดยไม่มีความรู้
ZK Verifiable Computation (ZK Verifiable Computation) คือการสร้างการพิสูจน์ความรู้เป็นศูนย์สำหรับชุดอินพุตและฟังก์ชัน และพิสูจน์ว่าการคำนวณใดๆ ที่ดำเนินการโดยระบบจะดำเนินการอย่างถูกต้อง แม้ว่าการคำนวณพิสูจน์แนวคิดของ ZK จะเป็นเรื่องใหม่ แต่ก็เป็นส่วนสำคัญอย่างยิ่งของแผนกลยุทธ์การปรับขนาดของเครือข่าย Ethereum
ZK พิสูจน์ให้เห็นว่ามีรูปแบบการใช้งานที่หลากหลาย (ดังแสดงในรูปด้านล่าง อ้างอิงจากข้อมูลสรุปในกระดาษ "Off-Chaining_Models"):
(来源:IOSG Ventures, Off-chaining Models and Approaches to Off-chain Computations, Jacob Eberhardt & Jonathan Heiss)
ข้างต้นเรามีความเข้าใจพื้นฐานเกี่ยวกับการใช้การพิสูจน์ zk ดังนั้นเงื่อนไขในการใช้การพิสูจน์ ZK เพื่อตรวจสอบการคำนวณคืออะไร
ภาวะที่กลืนไม่เข้าคายไม่ออกของนักพัฒนา - พิสูจน์ภาวะที่กลืนไม่เข้าคายไม่ออกด้านประสิทธิภาพ
อีกอย่างที่ต้องบอกคือเกณฑ์สำหรับการสร้างวงจรนั้นยังสูงมาก มันไม่ง่ายเลยสำหรับนักพัฒนาในการเรียนรู้ Solidity ตอนนี้นักพัฒนาจำเป็นต้องเรียนรู้ Circom เพื่อสร้างวงจรหรือเรียนรู้ภาษาโปรแกรมเฉพาะ (เช่น ไคโร) การสร้าง zk-apps ดูเหมือนจะเป็นเรื่องไกลตัว
(แหล่งที่มา:
(แหล่งที่มา:
ดังที่สถิติด้านบนแสดงให้เห็น การปรับสภาพแวดล้อม Web3 ใหม่ให้เป็นมิตรกับการพัฒนามากขึ้นดูเหมือนจะยั่งยืนกว่าการนำนักพัฒนาเข้าสู่สภาพแวดล้อมการพัฒนา Web3 ใหม่
หาก ZK คืออนาคตของ Web3 และแอปพลิเคชัน Web3 จำเป็นต้องสร้างขึ้นโดยใช้ทักษะของนักพัฒนาที่มีอยู่ วงจร ZK จำเป็นต้องได้รับการออกแบบในลักษณะที่รองรับการคำนวณที่ดำเนินการโดยอัลกอริทึมที่เขียนในภาษาต่างๆ เช่น Java หรือ Rust เพื่อสร้างการพิสูจน์ .
โซลูชันดังกล่าวมีอยู่จริง และฉันนึกถึงสองทีม: RiscZero และ Lurk Labs ทั้งสองทีมมีวิสัยทัศน์ที่คล้ายคลึงกันคืออนุญาตให้นักพัฒนาสร้าง zk-apps โดยไม่ต้องผ่านช่วงการเรียนรู้ที่สูงชัน
ยังคงเป็นวันแรกสำหรับ Lurk Labs แต่ทีมงานได้ทำงานในโครงการนี้มาเป็นเวลานาน พวกเขามุ่งเน้นไปที่การสร้าง Nova Proofs ผ่านวงจรเอนกประสงค์ การพิสูจน์ Nova ถูกเสนอโดย Abhiram Kothapalli จาก Carnegie Mellon University และ Srinath Setty จาก Microsoft Research และ Ioanna Tziallae จาก New York University เมื่อเปรียบเทียบกับระบบ SNARK อื่นๆ การพิสูจน์ Nova มีข้อได้เปรียบเฉพาะในการประมวลผลแบบ Incremental Verifiable Computation (IVC) Incrementally Verifiable Computation (IVC) เป็นแนวคิดในวิทยาการคอมพิวเตอร์และการเข้ารหัสที่มีจุดมุ่งหมายเพื่อให้สามารถตรวจสอบความถูกต้องของการคำนวณได้โดยไม่ต้องคำนวณใหม่ทั้งหมดตั้งแต่เริ่มต้น การพิสูจน์ต้องได้รับการปรับให้เหมาะสมสำหรับ IVC เมื่อเวลาในการคำนวณยาวนานและซับซ้อน
(ที่มา: IOSG Ventures)
การพิสูจน์ Nova ไม่ใช่ "นอกกรอบ" เหมือนระบบพิสูจน์อื่น ๆ Nova เป็นเพียงเคล็ดลับแบบพับได้ และนักพัฒนายังคงต้องการระบบพิสูจน์เพื่อสร้างการพิสูจน์ นั่นเป็นเหตุผลที่ Lurk Labs สร้าง Lurk Lang ซึ่งเป็นการใช้งาน LISP เนื่องจาก LISP เป็นภาษาระดับล่าง จึงทำให้ง่ายต่อการสร้างการพิสูจน์ในวงจรวัตถุประสงค์ทั่วไป และยังง่ายต่อการแปลเป็น Java ซึ่งจะช่วยให้ Lurk Labs ได้รับการสนับสนุนจากนักพัฒนา Java 17.4 ล้านคน รองรับการแปลสำหรับภาษาทั่วไปอื่น ๆ เช่น Python
สรุปแล้ว Nova Proofs ดูเหมือนจะเป็นระบบพิสูจน์ต้นฉบับที่ยอดเยี่ยม ในขณะที่ข้อเสียของพวกเขาคือขนาดของการพิสูจน์จะเพิ่มขึ้นเป็นเส้นตรงตามขนาดของการคำนวณ ในทางกลับกัน การพิสูจน์ของ Nova จะมีที่ว่างสำหรับการบีบอัดเพิ่มเติม
ขนาดของการพิสูจน์ STARK ไม่ได้เพิ่มขึ้นตามการคำนวณ ดังนั้นจึงเหมาะสมกว่าสำหรับการตรวจสอบการคำนวณที่มีขนาดใหญ่มาก เพื่อปรับปรุงประสบการณ์นักพัฒนาให้ดียิ่งขึ้น พวกเขายังเปิดตัว Bonsai Network ซึ่งเป็นเครือข่ายคอมพิวเตอร์แบบกระจายที่ตรวจสอบโดยหลักฐานที่สร้างโดย RiscZero นี่เป็นแผนภาพง่ายๆ ที่แสดงถึงการทำงานของเครือข่าย Bonsai ของ RiscZero
(แหล่งที่มา:
ความสวยงามของการออกแบบเครือข่ายบอนไซคือการคำนวณสามารถเริ่มต้น ตรวจสอบ และส่งออกทั้งหมดบนเครือข่ายได้ ทั้งหมดนี้ฟังดูเหมือนอยู่ในอุดมคติ แต่การพิสูจน์ของ STARK ก็นำมาซึ่งปัญหาเช่นกัน ค่าใช้จ่ายในการตรวจสอบสูงเกินไป
การพิสูจน์ Nova ดูเหมือนจะเหมาะสมอย่างยิ่งสำหรับการคำนวณซ้ำๆ (รูปแบบการพับนั้นคุ้มค่า) และการคำนวณขนาดเล็ก ซึ่งอาจทำให้ Lurk เป็นโซลูชันที่ดีสำหรับการตรวจสอบการอนุมาน ML
##ใครคือผู้ชนะ?
(ที่มา: IOSG Ventures)
ระบบ zk-SNARK บางระบบต้องการกระบวนการตั้งค่าที่เชื่อถือได้ในระหว่างขั้นตอนการตั้งค่าเริ่มต้น โดยสร้างชุดพารามิเตอร์เริ่มต้น ข้อสันนิษฐานของความน่าเชื่อถือที่นี่คือการตั้งค่าที่เชื่อถือได้นั้นดำเนินการอย่างตรงไปตรงมา โดยไม่มีพฤติกรรมที่เป็นอันตรายหรือการดัดแปลงใด ๆ หากถูกโจมตี อาจนำไปสู่การสร้างหลักฐานที่ไม่ถูกต้อง
การพิสูจน์ของ STARK ถือว่าความปลอดภัยของการทดสอบลำดับต่ำสำหรับการตรวจสอบคุณสมบัติลำดับต่ำของพหุนาม พวกเขายังถือว่าฟังก์ชันแฮชทำงานเหมือนออราเคิลแบบสุ่ม
การใช้งานทั้งสองระบบอย่างเหมาะสมถือเป็นข้อสันนิษฐานด้านความปลอดภัย
เครือข่าย SMPC ขึ้นอยู่กับสิ่งต่อไปนี้:
OTM เป็นโปรโตคอลการคำนวณหลายฝ่ายที่ออกแบบมาเพื่อปกป้องความเป็นส่วนตัวของผู้เข้าร่วม ได้รับการคุ้มครองความเป็นส่วนตัวโดยทำให้ผู้เข้าร่วมไม่ต้องเปิดเผยข้อมูลที่ป้อนเข้าในการคำนวณ ดังนั้นจึงไม่มีผู้เข้าร่วมที่ "ซื่อสัตย์แต่อยากรู้อยากเห็น" เนื่องจากพวกเขาไม่สามารถสื่อสารกับโหนดอื่นเพื่อพยายามเข้าถึงข้อมูลพื้นฐาน
มีผู้ชนะที่ชัดเจนหรือไม่ เราไม่รู้ แต่แต่ละวิธีก็มีข้อดีในตัวเอง แม้ว่า NMC จะดูเหมือนอัปเกรดเป็น SMPC อย่างชัดเจน แต่เครือข่ายนี้ยังไม่ได้ใช้งานจริงหรือทดสอบการต่อสู้
ประโยชน์ของการใช้การคำนวณที่ตรวจสอบได้ของ ZK คือมีความปลอดภัยและรักษาความเป็นส่วนตัว แต่ไม่มีการแบ่งปันความลับในตัว ความไม่สมมาตรระหว่างการสร้างการพิสูจน์และการทวนสอบทำให้เป็นแบบจำลองที่เหมาะสำหรับการคำนวณจากภายนอกที่ตรวจสอบได้ หากระบบใช้การคำนวณแบบ zk-proof คอมพิวเตอร์ (หรือโหนดเดียว) จะต้องมีประสิทธิภาพมากในการคำนวณจำนวนมาก ในการเปิดใช้งานการแชร์โหลดและการสร้างสมดุลในขณะที่รักษาความเป็นส่วนตัว จะต้องมีการแชร์แบบลับ ในกรณีนี้ สามารถรวมระบบอย่าง SMPC หรือ NMC กับตัวสร้าง zk อย่าง Lurk หรือ RiscZero เพื่อสร้างโครงสร้างพื้นฐานการประมวลผลแบบเอาท์ซอร์สแบบกระจายตรวจสอบที่ทรงพลังได้
สิ่งนี้มีความสำคัญมากยิ่งขึ้นในเครือข่าย MPC/SMPC แบบรวมศูนย์ในปัจจุบัน ผู้ให้บริการ MPC รายใหญ่ที่สุดในขณะนี้คือ Sharemind และชั้นการตรวจสอบ ZK ที่อยู่ด้านบนสามารถพิสูจน์ได้ว่ามีประโยชน์ รูปแบบเศรษฐกิจของเครือข่าย MPC แบบกระจายอำนาจยังไม่ได้ผล ตามทฤษฎีแล้ว โหมด NMC เป็นการอัปเกรดระบบ MPC แต่เรายังไม่เห็นความสำเร็จ
ในการแข่งขันเพื่อแผนการพิสูจน์ ZK อาจไม่มีสถานการณ์แบบผู้ชนะทั้งหมด วิธีการพิสูจน์แต่ละวิธีได้รับการปรับให้เหมาะสมสำหรับการคำนวณประเภทใดประเภทหนึ่ง และไม่มีใครเหมาะกับแบบจำลองทุกประเภท มีงานคำนวณหลายประเภท และยังขึ้นอยู่กับการแลกเปลี่ยนระหว่างนักพัฒนาที่ทำกับระบบพิสูจน์แต่ละระบบ ผู้เขียนเชื่อว่าทั้งระบบที่ใช้ STARK และระบบที่ใช้ SNARK และการเพิ่มประสิทธิภาพในอนาคตนั้นมีที่มาที่อนาคตของ ZK