Terima kasih khusus kepada John Burnham dari Lurk Labs atas komentar dan sarannya yang berharga untuk artikel ini.
Tentang kinerja Mesin Virtual Ethereum (EVM)
Setiap operasi di mainnet Ethereum menghabiskan sejumlah Gas.Jika kami menempatkan semua perhitungan yang diperlukan untuk menjalankan aplikasi dasar pada rantai, aplikasi akan macet atau pengguna akan bangkrut.
Ini melahirkan L2: OPRU memperkenalkan collator untuk menggabungkan banyak transaksi sebelum melakukan mainnet. Ini tidak hanya membantu aplikasi untuk menjalankan keamanan Ethereum, tetapi juga memberi pengguna pengalaman yang lebih baik. Pengguna dapat melakukan transaksi lebih cepat, dan biaya lebih murah. Sementara operasi menjadi lebih murah, masih menggunakan EVM asli sebagai lapisan eksekusi. Mirip dengan ZK Rollups, Scroll dan Polygon zkEVM menggunakan atau akan menggunakan sirkuit zk berbasis EVM, dan zk Proof akan dihasilkan di setiap transaksi atau sejumlah besar transaksi yang dilakukan pada pembuktiannya. Meskipun hal ini memungkinkan pengembang untuk membuat aplikasi "on-chain", apakah tetap efisien dan hemat biaya untuk menjalankan aplikasi berperforma tinggi?
Apa saja aplikasi berperforma tinggi ini?
Game, buku pesanan on-chain, sosial Web3, pembelajaran mesin, pemodelan genom, dll. Semua ini intensif secara komputasi dan mahal untuk dijalankan di L2. Masalah lain dengan EVM adalah kecepatan perhitungan dan efisiensinya tidak sebaik sistem lain saat ini, seperti SVM (Sealevel Virtual Machine).
Sementara EVM L3 dapat membuat komputasi lebih murah, struktur EVM itu sendiri mungkin bukan cara terbaik untuk melakukan komputasi tinggi karena tidak dapat menghitung operasi paralel. Setiap kali lapisan baru dibangun di atas, untuk menjaga semangat desentralisasi, infrastruktur baru (jaringan node baru) perlu dibangun, yang masih membutuhkan jumlah penyedia yang sama untuk berkembang, atau kumpulan Node yang sama sekali baru. penyedia (individu/perusahaan) untuk menyediakan sumber daya, atau keduanya diperlukan.
Oleh karena itu, setiap kali solusi yang lebih maju dibangun, infrastruktur yang ada harus ditingkatkan, atau lapisan baru dibangun di atasnya. Untuk mengatasi masalah ini, kami memerlukan infrastruktur komputasi pasca-kuantum yang aman, terdesentralisasi, tidak dapat dipercaya, dan berkinerja tinggi yang dapat benar-benar dan efisien menggunakan algoritme kuantum untuk menghitung aplikasi terdesentralisasi.
Alt-L1 seperti Solana, Sui, dan Aptos mampu melakukan eksekusi paralel, tetapi karena sentimen pasar, kurangnya likuiditas, dan kurangnya pengembang di pasar, mereka tidak akan menantang Ethereum. Karena kurangnya kepercayaan, dan parit yang dibangun oleh Ethereum dengan efek jaringan merupakan tonggak sejarah. Sejauh ini, pembunuh ETH/EVM tidak ada. Pertanyaannya di sini adalah, mengapa semua perhitungan harus on-chain? Apakah ada sistem penegakan yang sama-sama tidak dapat dipercaya dan terdesentralisasi? Inilah yang dapat dicapai oleh sistem DCompute.
Infrastruktur DCompute harus terdesentralisasi, aman pasca-kuantum, dan tidak dapat dipercaya. Ia tidak memerlukan atau tidak boleh berupa teknologi blockchain/terdistribusi, tetapi sangat penting untuk memverifikasi hasil perhitungan, transisi status yang benar, dan konfirmasi akhir. penting. Beginilah cara kerja rantai EVM. Sambil menjaga keamanan dan kekekalan jaringan, komputasi yang terdesentralisasi, tidak dapat dipercaya, dan aman dapat dipindahkan secara off-chain.
Apa yang terutama kami abaikan di sini adalah masalah ketersediaan data. Posting ini bukannya tanpa fokus pada ketersediaan data, karena solusi seperti Celestia dan EigenDA sudah bergerak ke arah ini.
1: Hanya Hitung Outsourcing
( 来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Komputasi outsourcing dan ketersediaan data
( 来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
zk-rollups sudah melakukan ini ketika kami melihat Tipe 1, tetapi mereka dibatasi oleh EVM, atau diperlukan untuk mengajari pengembang set bahasa/instruksi yang benar-benar baru. Solusi ideal harus efisien, efektif (biaya dan sumber daya), terdesentralisasi, pribadi, dan dapat diverifikasi. Bukti ZK dapat dibangun di server AWS, tetapi tidak terdesentralisasi. Solusi seperti Nillion dan Nexus mencoba memecahkan masalah komputasi umum dengan cara terdesentralisasi. Tetapi solusi ini tidak dapat diverifikasi tanpa bukti ZK.
Tipe 2 menggabungkan model komputasi off-chain dengan lapisan ketersediaan data yang tetap terpisah, tetapi komputasi masih perlu diverifikasi secara on-chain.
Mari kita lihat berbagai model komputasi terdesentralisasi yang tersedia saat ini yang tidak sepenuhnya dapat dipercaya dan mungkin sepenuhnya tidak dapat dipercaya.
Alternatif; Perhitungan s
Peta Ekologi Komputasi Alih Daya Ethereum (Sumber: IOSG Ventures)
Komputasi Enklave Aman / Lingkungan Eksekusi Tepercaya
TEE (Lingkungan Eksekusi Tepercaya) seperti kotak khusus di dalam komputer atau smartphone. Itu memiliki kunci dan kuncinya sendiri, dan hanya program tertentu (disebut aplikasi tepercaya) yang dapat mengaksesnya. Saat aplikasi tepercaya ini berjalan di dalam TEE, aplikasi tersebut dilindungi oleh program lain dan bahkan sistem operasi itu sendiri.
Ini seperti tempat persembunyian rahasia yang hanya bisa dimasuki oleh beberapa teman spesial. Contoh TEE yang paling umum adalah Enklave Aman, yang ada di perangkat yang kami gunakan, seperti chip T;1 Apple dan SGX Intel, untuk menjalankan operasi penting di dalam perangkat, seperti FaceID.
Karena TEE adalah sistem yang terisolasi, proses autentikasi tidak dapat dikompromikan karena asumsi kepercayaan dalam autentikasi. Anggap saja memiliki pintu keamanan yang Anda yakini aman karena Intel atau Apple membuatnya, tetapi ada cukup banyak pembobol keamanan di dunia (termasuk peretas dan komputer lain) yang dapat menembus pintu keamanan tersebut. TEE bukanlah "keamanan pasca-kuantum", yang berarti komputer kuantum dengan sumber daya tidak terbatas dapat meretas keamanan TEE. Karena komputer dengan cepat menjadi lebih kuat, kita harus membangun sistem komputasi jangka panjang dan skema kriptografi dengan mempertimbangkan keamanan pasca-kuantum.
Komputasi Multi-Partai Aman (SMPC)
SMPC (Secure Multi-Party Computation) juga merupakan solusi komputasi terkenal di industri teknologi blockchain.Alur kerja umum dalam jaringan SMPC akan terdiri dari tiga bagian berikut:
Langkah 1;: Ubah input yang dihitung menjadi share (saham), dan distribusikan di antara node SMPC.
Langkah 2;: Lakukan perhitungan aktual, biasanya melibatkan pertukaran pesan antar node SMPC. Pada akhir langkah ini, setiap node akan memiliki bagian dari nilai keluaran yang dihitung.
Langkah 3;: Kirim pembagian hasil ke satu atau lebih simpul hasil, yang menjalankan LSS (algoritme pemulihan pembagian rahasia) untuk merekonstruksi hasil keluaran.
Bayangkan sebuah jalur produksi mobil, di mana bangunan dan pembuatan komponen mobil (mesin, pintu, kaca spion) dialihdayakan ke original equipment manufacturer (OEM) (node pekerjaan), dan kemudian ada jalur perakitan yang menyatukan semua komponen. untuk membuat mobil (menghasilkan simpul).
Berbagi rahasia penting untuk model komputasi terdesentralisasi yang menjaga privasi. Ini mencegah satu pihak untuk mendapatkan "rahasia" penuh (masukan dalam kasus ini) dan dengan jahat menghasilkan keluaran palsu. SMPC mungkin salah satu sistem terdesentralisasi termudah dan teraman. Sementara model yang sepenuhnya terdesentralisasi saat ini tidak ada, secara logis mungkin.
Penyedia MPC seperti Sharemind menyediakan infrastruktur MPC untuk komputasi, namun penyedia masih terpusat. Bagaimana memastikan privasi, bagaimana memastikan bahwa jaringan (atau Sharemind) tidak bertindak jahat?Di sinilah bukti zk dan perhitungan zk yang dapat diverifikasi masuk.
Komputasi Pesan Nihil(NMC)
NMC adalah metode komputasi terdistribusi baru yang dikembangkan oleh tim Nillion. Ini adalah versi MPC yang ditingkatkan, di mana node tidak perlu berkomunikasi dengan berinteraksi melalui hasil. Untuk melakukan ini, mereka menggunakan primitif kriptografi yang disebut One-Time Masking, yang menggunakan serangkaian angka acak yang disebut faktor buta untuk menutupi Rahasia, mirip dengan padding satu kali. OTM bertujuan untuk memberikan kebenaran dengan cara yang efisien, yang berarti bahwa node NMC tidak perlu bertukar pesan apapun untuk melakukan perhitungan. Ini berarti NMC tidak memiliki masalah skalabilitas SMPC.
Komputasi tanpa pengetahuan yang dapat diverifikasi
Komputasi yang Dapat Diverifikasi ZK (Komputasi yang Dapat Diverifikasi ZK) adalah untuk menghasilkan bukti tanpa pengetahuan untuk sekumpulan input dan fungsi, dan membuktikan bahwa setiap perhitungan yang dilakukan oleh sistem akan dilakukan dengan benar. Meskipun perhitungan proof-of-concept ZK masih baru, ini sudah menjadi bagian yang sangat penting dari roadmap penskalaan jaringan Ethereum.
ZK membuktikan bahwa ada berbagai bentuk implementasi (seperti yang ditunjukkan pada gambar di bawah ini, berdasarkan ringkasan di makalah "Off-Chaining_Models"):
(来源:IOSG Ventures, Model Off-chaining dan Pendekatan untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Di atas kami memiliki pemahaman dasar tentang penerapan bukti zk, jadi apa syarat penggunaan bukti ZK untuk memverifikasi perhitungan?
Pertama-tama, kita harus memilih bukti primitif. Bukti primitif yang ideal memiliki biaya rendah untuk menghasilkan bukti, tidak memerlukan memori tinggi, dan mudah diverifikasi
Kedua, pilih sirkuit zk yang dirancang untuk menghasilkan bukti primitif di atas secara komputasi
Terakhir, dalam sistem/jaringan komputasi, fungsi yang diberikan dihitung pada input yang diberikan dan memberikan output.
Dilema Pengembang - Buktikan Dilema Efisiensi
Hal lain yang harus saya katakan adalah ambang batas untuk membangun sirkuit masih sangat tinggi. Tidak mudah bagi pengembang untuk mempelajari Soliditas. Sekarang pengembang diharuskan mempelajari Circom untuk membangun sirkuit, atau mempelajari bahasa pemrograman tertentu (seperti Kairo) untuk membangun zk-apps sepertinya prospek yang jauh.
(sumber:
(sumber:
Seperti yang ditunjukkan statistik di atas, retrofit lingkungan Web3 agar lebih ramah pengembangan tampaknya lebih berkelanjutan daripada membawa pengembang ke lingkungan pengembangan Web3 baru.
Jika ZK adalah masa depan Web3, dan aplikasi Web3 perlu dibangun menggunakan keterampilan pengembang yang ada, maka sirkuit ZK perlu dirancang sedemikian rupa sehingga mendukung perhitungan yang dilakukan oleh algoritme yang ditulis dalam bahasa seperti Java atau Rust untuk menghasilkan bukti .
Solusi semacam itu memang ada, dan saya memikirkan dua tim: RiscZero dan Lurk Labs. Kedua tim berbagi visi yang sangat mirip bahwa mereka mengizinkan pengembang untuk membuat aplikasi zk tanpa melalui kurva pembelajaran yang curam.
Ini masih awal untuk Lurk Labs, tetapi tim telah mengerjakan proyek ini sejak lama. Mereka fokus untuk menghasilkan Nova Proofs melalui sirkuit tujuan umum. Bukti Nova diusulkan oleh Abhiram Kothapalli dari Carnegie Mellon University dan Srinath Setty dari Microsoft Research dan Ioanna Tziallae dari New York University. Dibandingkan dengan sistem SNARK lainnya, bukti Nova memiliki keunggulan khusus dalam melakukan komputasi tambahan yang dapat diverifikasi (IVC). Incrementally Verifiable Computation (IVC) adalah sebuah konsep dalam ilmu komputer dan kriptografi yang bertujuan untuk memungkinkan verifikasi komputasi tanpa menghitung ulang seluruh komputasi dari awal. Bukti perlu dioptimalkan untuk IVC ketika waktu komputasi panjang dan rumit.
(Sumber: IOSG Ventures)
Proof Nova tidak "out of the box" seperti sistem pembuktian lainnya, Nova hanyalah trik lipat, dan pengembang masih membutuhkan sistem pembuktian untuk menghasilkan bukti. Itu sebabnya Lurk Labs membuat Lurk Lang, sebuah implementasi LISP. Karena LISP adalah bahasa tingkat rendah, membuatnya mudah untuk menghasilkan bukti pada sirkuit tujuan umum, dan juga mudah diterjemahkan ke Java, yang akan membantu Lurk Labs mendapatkan dukungan dari 17,4 juta pengembang Java. Terjemahan untuk bahasa umum lainnya seperti Python juga didukung.
Secara keseluruhan, pembuktian Nova tampaknya merupakan sistem pembuktian asli yang hebat. Sementara kerugiannya adalah bahwa ukuran bukti meningkat secara linier dengan ukuran perhitungan, bukti Nova, di sisi lain, memiliki ruang untuk kompresi lebih lanjut.
Ukuran bukti STARK tidak bertambah dengan komputasi, sehingga lebih cocok untuk memverifikasi komputasi yang sangat besar. Untuk lebih meningkatkan pengalaman pengembang, mereka juga merilis Jaringan Bonsai, jaringan komputasi terdistribusi yang diverifikasi oleh bukti yang dihasilkan oleh RiscZero. Ini adalah diagram sederhana yang menunjukkan cara kerja jaringan Bonsai RiscZero.
(Sumber:
Keindahan dari desain jaringan Bonsai adalah perhitungan dapat diinisialisasi, diverifikasi, dan menghasilkan semua on-chain. Semua ini terdengar seperti utopia, tetapi bukti STARK juga menimbulkan masalah - biaya verifikasi terlalu tinggi.
Bukti Nova tampaknya sangat cocok untuk komputasi berulang (skema pelipatannya hemat biaya) dan komputasi kecil, yang dapat menjadikan Lurk solusi yang baik untuk verifikasi inferensi ML.
Siapa pemenangnya?
(Sumber: IOSG Ventures)
Beberapa sistem zk-SNARK memerlukan proses penyiapan tepercaya selama fase penyiapan awal, menghasilkan kumpulan parameter awal. Asumsi kepercayaan di sini adalah bahwa penyiapan tepercaya dilakukan dengan jujur, tanpa perilaku jahat atau perusakan. Jika diserang, itu bisa mengarah pada pembuatan bukti yang tidak valid.
Bukti STARK mengasumsikan keamanan tes tingkat rendah untuk memverifikasi properti polinomial tingkat rendah. Mereka juga berasumsi bahwa fungsi hash berperilaku seperti oracle acak.
Implementasi yang tepat dari kedua sistem juga merupakan asumsi keamanan.
Jaringan SMPC bergantung pada hal berikut:
Peserta SMPC dapat menyertakan peserta "jujur tapi ingin tahu" yang dapat mencoba mengakses informasi mendasar apa pun dengan berkomunikasi dengan node lain.
Keamanan jaringan SMPC bergantung pada asumsi bahwa peserta menjalankan protokol dengan benar dan tidak sengaja menimbulkan kesalahan atau perilaku berbahaya.
Protokol SMPC tertentu mungkin memerlukan fase penyiapan tepercaya untuk menghasilkan parameter terenkripsi atau nilai awal. Asumsi kepercayaan di sini adalah bahwa pengaturan tepercaya ditegakkan dengan jujur.
Sama seperti jaringan SMPC, asumsi keamanannya tetap sama, tetapi karena adanya OTM (Off-The-Grid Multi-party Computation), tidak ada peserta yang "jujur tapi penasaran".
OTM adalah protokol perhitungan multi-pihak yang dirancang untuk melindungi privasi peserta. Ini mencapai perlindungan privasi dengan memungkinkan peserta untuk tidak mengungkapkan data masukan mereka dalam perhitungan. Oleh karena itu, peserta yang "jujur tapi ingin tahu" tidak ada karena mereka tidak dapat berkomunikasi dengan node lain dalam upaya mengakses informasi yang mendasarinya.
Apakah ada pemenang yang jelas?Kami tidak tahu. Tetapi setiap metode memiliki kelebihannya masing-masing. Sementara NMC terlihat seperti upgrade yang jelas ke SMPC, jaringannya belum hidup atau teruji.
Manfaat menggunakan perhitungan yang dapat diverifikasi ZK adalah aman dan menjaga privasi, tetapi tidak memiliki pembagian rahasia bawaan. Asimetri antara pembuatan bukti dan verifikasi menjadikannya model yang ideal untuk komputasi yang dialihdayakan. Jika sistem menggunakan kalkulasi zk-proof murni, komputer (atau satu node) harus sangat kuat untuk melakukan banyak kalkulasi. Untuk mengaktifkan pembagian beban dan penyeimbangan sekaligus menjaga privasi, harus ada pembagian rahasia. Dalam hal ini, sistem seperti SMPC atau NMC dapat digabungkan dengan generator zk seperti Lurk atau RiscZero untuk membuat infrastruktur komputasi outsourcing terdistribusi yang kuat dan dapat diverifikasi.
Hal ini menjadi semakin penting dalam jaringan MPC/SMPC terpusat saat ini. Penyedia MPC terbesar saat ini adalah Sharemind, dan lapisan verifikasi ZK di atasnya terbukti bermanfaat. Model ekonomi jaringan MPC terdesentralisasi belum berhasil. Secara teori, mode NMC adalah peningkatan dari sistem MPC, tetapi kami belum melihat keberhasilannya.
Dalam perlombaan untuk skema bukti ZK, mungkin tidak ada situasi pemenang-mengambil-semua. Setiap metode bukti dioptimalkan untuk jenis perhitungan tertentu, dan tidak ada yang cocok untuk semua jenis model. Ada banyak jenis tugas komputasi, dan ini juga bergantung pada trade-off yang dibuat pengembang dengan setiap sistem pembuktian. Penulis percaya bahwa sistem berbasis STARK dan sistem berbasis SNARK serta pengoptimalannya di masa mendatang memiliki tempat di masa depan ZK.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
IOSG Ventures: Jalan menuju inovasi yang membebaskan kinerja Ethereum dan melampaui kemacetan EVM
Penulis Asli: Siddharth Rao, IOSG Ventures
Terima kasih khusus kepada John Burnham dari Lurk Labs atas komentar dan sarannya yang berharga untuk artikel ini.
Tentang kinerja Mesin Virtual Ethereum (EVM)
Setiap operasi di mainnet Ethereum menghabiskan sejumlah Gas.Jika kami menempatkan semua perhitungan yang diperlukan untuk menjalankan aplikasi dasar pada rantai, aplikasi akan macet atau pengguna akan bangkrut.
Ini melahirkan L2: OPRU memperkenalkan collator untuk menggabungkan banyak transaksi sebelum melakukan mainnet. Ini tidak hanya membantu aplikasi untuk menjalankan keamanan Ethereum, tetapi juga memberi pengguna pengalaman yang lebih baik. Pengguna dapat melakukan transaksi lebih cepat, dan biaya lebih murah. Sementara operasi menjadi lebih murah, masih menggunakan EVM asli sebagai lapisan eksekusi. Mirip dengan ZK Rollups, Scroll dan Polygon zkEVM menggunakan atau akan menggunakan sirkuit zk berbasis EVM, dan zk Proof akan dihasilkan di setiap transaksi atau sejumlah besar transaksi yang dilakukan pada pembuktiannya. Meskipun hal ini memungkinkan pengembang untuk membuat aplikasi "on-chain", apakah tetap efisien dan hemat biaya untuk menjalankan aplikasi berperforma tinggi?
Apa saja aplikasi berperforma tinggi ini?
Game, buku pesanan on-chain, sosial Web3, pembelajaran mesin, pemodelan genom, dll. Semua ini intensif secara komputasi dan mahal untuk dijalankan di L2. Masalah lain dengan EVM adalah kecepatan perhitungan dan efisiensinya tidak sebaik sistem lain saat ini, seperti SVM (Sealevel Virtual Machine).
Sementara EVM L3 dapat membuat komputasi lebih murah, struktur EVM itu sendiri mungkin bukan cara terbaik untuk melakukan komputasi tinggi karena tidak dapat menghitung operasi paralel. Setiap kali lapisan baru dibangun di atas, untuk menjaga semangat desentralisasi, infrastruktur baru (jaringan node baru) perlu dibangun, yang masih membutuhkan jumlah penyedia yang sama untuk berkembang, atau kumpulan Node yang sama sekali baru. penyedia (individu/perusahaan) untuk menyediakan sumber daya, atau keduanya diperlukan.
Oleh karena itu, setiap kali solusi yang lebih maju dibangun, infrastruktur yang ada harus ditingkatkan, atau lapisan baru dibangun di atasnya. Untuk mengatasi masalah ini, kami memerlukan infrastruktur komputasi pasca-kuantum yang aman, terdesentralisasi, tidak dapat dipercaya, dan berkinerja tinggi yang dapat benar-benar dan efisien menggunakan algoritme kuantum untuk menghitung aplikasi terdesentralisasi.
Alt-L1 seperti Solana, Sui, dan Aptos mampu melakukan eksekusi paralel, tetapi karena sentimen pasar, kurangnya likuiditas, dan kurangnya pengembang di pasar, mereka tidak akan menantang Ethereum. Karena kurangnya kepercayaan, dan parit yang dibangun oleh Ethereum dengan efek jaringan merupakan tonggak sejarah. Sejauh ini, pembunuh ETH/EVM tidak ada. Pertanyaannya di sini adalah, mengapa semua perhitungan harus on-chain? Apakah ada sistem penegakan yang sama-sama tidak dapat dipercaya dan terdesentralisasi? Inilah yang dapat dicapai oleh sistem DCompute.
Infrastruktur DCompute harus terdesentralisasi, aman pasca-kuantum, dan tidak dapat dipercaya. Ia tidak memerlukan atau tidak boleh berupa teknologi blockchain/terdistribusi, tetapi sangat penting untuk memverifikasi hasil perhitungan, transisi status yang benar, dan konfirmasi akhir. penting. Beginilah cara kerja rantai EVM. Sambil menjaga keamanan dan kekekalan jaringan, komputasi yang terdesentralisasi, tidak dapat dipercaya, dan aman dapat dipindahkan secara off-chain.
Apa yang terutama kami abaikan di sini adalah masalah ketersediaan data. Posting ini bukannya tanpa fokus pada ketersediaan data, karena solusi seperti Celestia dan EigenDA sudah bergerak ke arah ini.
1: Hanya Hitung Outsourcing
( 来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
( 来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
zk-rollups sudah melakukan ini ketika kami melihat Tipe 1, tetapi mereka dibatasi oleh EVM, atau diperlukan untuk mengajari pengembang set bahasa/instruksi yang benar-benar baru. Solusi ideal harus efisien, efektif (biaya dan sumber daya), terdesentralisasi, pribadi, dan dapat diverifikasi. Bukti ZK dapat dibangun di server AWS, tetapi tidak terdesentralisasi. Solusi seperti Nillion dan Nexus mencoba memecahkan masalah komputasi umum dengan cara terdesentralisasi. Tetapi solusi ini tidak dapat diverifikasi tanpa bukti ZK.
Tipe 2 menggabungkan model komputasi off-chain dengan lapisan ketersediaan data yang tetap terpisah, tetapi komputasi masih perlu diverifikasi secara on-chain.
Mari kita lihat berbagai model komputasi terdesentralisasi yang tersedia saat ini yang tidak sepenuhnya dapat dipercaya dan mungkin sepenuhnya tidak dapat dipercaya.
Alternatif; Perhitungan s
Peta Ekologi Komputasi Alih Daya Ethereum (Sumber: IOSG Ventures)
Komputasi Enklave Aman / Lingkungan Eksekusi Tepercaya
TEE (Lingkungan Eksekusi Tepercaya) seperti kotak khusus di dalam komputer atau smartphone. Itu memiliki kunci dan kuncinya sendiri, dan hanya program tertentu (disebut aplikasi tepercaya) yang dapat mengaksesnya. Saat aplikasi tepercaya ini berjalan di dalam TEE, aplikasi tersebut dilindungi oleh program lain dan bahkan sistem operasi itu sendiri.
Ini seperti tempat persembunyian rahasia yang hanya bisa dimasuki oleh beberapa teman spesial. Contoh TEE yang paling umum adalah Enklave Aman, yang ada di perangkat yang kami gunakan, seperti chip T;1 Apple dan SGX Intel, untuk menjalankan operasi penting di dalam perangkat, seperti FaceID.
Karena TEE adalah sistem yang terisolasi, proses autentikasi tidak dapat dikompromikan karena asumsi kepercayaan dalam autentikasi. Anggap saja memiliki pintu keamanan yang Anda yakini aman karena Intel atau Apple membuatnya, tetapi ada cukup banyak pembobol keamanan di dunia (termasuk peretas dan komputer lain) yang dapat menembus pintu keamanan tersebut. TEE bukanlah "keamanan pasca-kuantum", yang berarti komputer kuantum dengan sumber daya tidak terbatas dapat meretas keamanan TEE. Karena komputer dengan cepat menjadi lebih kuat, kita harus membangun sistem komputasi jangka panjang dan skema kriptografi dengan mempertimbangkan keamanan pasca-kuantum.
Komputasi Multi-Partai Aman (SMPC)
SMPC (Secure Multi-Party Computation) juga merupakan solusi komputasi terkenal di industri teknologi blockchain.Alur kerja umum dalam jaringan SMPC akan terdiri dari tiga bagian berikut:
Bayangkan sebuah jalur produksi mobil, di mana bangunan dan pembuatan komponen mobil (mesin, pintu, kaca spion) dialihdayakan ke original equipment manufacturer (OEM) (node pekerjaan), dan kemudian ada jalur perakitan yang menyatukan semua komponen. untuk membuat mobil (menghasilkan simpul).
Berbagi rahasia penting untuk model komputasi terdesentralisasi yang menjaga privasi. Ini mencegah satu pihak untuk mendapatkan "rahasia" penuh (masukan dalam kasus ini) dan dengan jahat menghasilkan keluaran palsu. SMPC mungkin salah satu sistem terdesentralisasi termudah dan teraman. Sementara model yang sepenuhnya terdesentralisasi saat ini tidak ada, secara logis mungkin.
Penyedia MPC seperti Sharemind menyediakan infrastruktur MPC untuk komputasi, namun penyedia masih terpusat. Bagaimana memastikan privasi, bagaimana memastikan bahwa jaringan (atau Sharemind) tidak bertindak jahat?Di sinilah bukti zk dan perhitungan zk yang dapat diverifikasi masuk.
Komputasi Pesan Nihil(NMC)
NMC adalah metode komputasi terdistribusi baru yang dikembangkan oleh tim Nillion. Ini adalah versi MPC yang ditingkatkan, di mana node tidak perlu berkomunikasi dengan berinteraksi melalui hasil. Untuk melakukan ini, mereka menggunakan primitif kriptografi yang disebut One-Time Masking, yang menggunakan serangkaian angka acak yang disebut faktor buta untuk menutupi Rahasia, mirip dengan padding satu kali. OTM bertujuan untuk memberikan kebenaran dengan cara yang efisien, yang berarti bahwa node NMC tidak perlu bertukar pesan apapun untuk melakukan perhitungan. Ini berarti NMC tidak memiliki masalah skalabilitas SMPC.
Komputasi tanpa pengetahuan yang dapat diverifikasi
Komputasi yang Dapat Diverifikasi ZK (Komputasi yang Dapat Diverifikasi ZK) adalah untuk menghasilkan bukti tanpa pengetahuan untuk sekumpulan input dan fungsi, dan membuktikan bahwa setiap perhitungan yang dilakukan oleh sistem akan dilakukan dengan benar. Meskipun perhitungan proof-of-concept ZK masih baru, ini sudah menjadi bagian yang sangat penting dari roadmap penskalaan jaringan Ethereum.
ZK membuktikan bahwa ada berbagai bentuk implementasi (seperti yang ditunjukkan pada gambar di bawah ini, berdasarkan ringkasan di makalah "Off-Chaining_Models"):
(来源:IOSG Ventures, Model Off-chaining dan Pendekatan untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Di atas kami memiliki pemahaman dasar tentang penerapan bukti zk, jadi apa syarat penggunaan bukti ZK untuk memverifikasi perhitungan?
Dilema Pengembang - Buktikan Dilema Efisiensi
Hal lain yang harus saya katakan adalah ambang batas untuk membangun sirkuit masih sangat tinggi. Tidak mudah bagi pengembang untuk mempelajari Soliditas. Sekarang pengembang diharuskan mempelajari Circom untuk membangun sirkuit, atau mempelajari bahasa pemrograman tertentu (seperti Kairo) untuk membangun zk-apps sepertinya prospek yang jauh.
(sumber:
(sumber:
Seperti yang ditunjukkan statistik di atas, retrofit lingkungan Web3 agar lebih ramah pengembangan tampaknya lebih berkelanjutan daripada membawa pengembang ke lingkungan pengembangan Web3 baru.
Jika ZK adalah masa depan Web3, dan aplikasi Web3 perlu dibangun menggunakan keterampilan pengembang yang ada, maka sirkuit ZK perlu dirancang sedemikian rupa sehingga mendukung perhitungan yang dilakukan oleh algoritme yang ditulis dalam bahasa seperti Java atau Rust untuk menghasilkan bukti .
Solusi semacam itu memang ada, dan saya memikirkan dua tim: RiscZero dan Lurk Labs. Kedua tim berbagi visi yang sangat mirip bahwa mereka mengizinkan pengembang untuk membuat aplikasi zk tanpa melalui kurva pembelajaran yang curam.
Ini masih awal untuk Lurk Labs, tetapi tim telah mengerjakan proyek ini sejak lama. Mereka fokus untuk menghasilkan Nova Proofs melalui sirkuit tujuan umum. Bukti Nova diusulkan oleh Abhiram Kothapalli dari Carnegie Mellon University dan Srinath Setty dari Microsoft Research dan Ioanna Tziallae dari New York University. Dibandingkan dengan sistem SNARK lainnya, bukti Nova memiliki keunggulan khusus dalam melakukan komputasi tambahan yang dapat diverifikasi (IVC). Incrementally Verifiable Computation (IVC) adalah sebuah konsep dalam ilmu komputer dan kriptografi yang bertujuan untuk memungkinkan verifikasi komputasi tanpa menghitung ulang seluruh komputasi dari awal. Bukti perlu dioptimalkan untuk IVC ketika waktu komputasi panjang dan rumit.
(Sumber: IOSG Ventures)
Proof Nova tidak "out of the box" seperti sistem pembuktian lainnya, Nova hanyalah trik lipat, dan pengembang masih membutuhkan sistem pembuktian untuk menghasilkan bukti. Itu sebabnya Lurk Labs membuat Lurk Lang, sebuah implementasi LISP. Karena LISP adalah bahasa tingkat rendah, membuatnya mudah untuk menghasilkan bukti pada sirkuit tujuan umum, dan juga mudah diterjemahkan ke Java, yang akan membantu Lurk Labs mendapatkan dukungan dari 17,4 juta pengembang Java. Terjemahan untuk bahasa umum lainnya seperti Python juga didukung.
Secara keseluruhan, pembuktian Nova tampaknya merupakan sistem pembuktian asli yang hebat. Sementara kerugiannya adalah bahwa ukuran bukti meningkat secara linier dengan ukuran perhitungan, bukti Nova, di sisi lain, memiliki ruang untuk kompresi lebih lanjut.
Ukuran bukti STARK tidak bertambah dengan komputasi, sehingga lebih cocok untuk memverifikasi komputasi yang sangat besar. Untuk lebih meningkatkan pengalaman pengembang, mereka juga merilis Jaringan Bonsai, jaringan komputasi terdistribusi yang diverifikasi oleh bukti yang dihasilkan oleh RiscZero. Ini adalah diagram sederhana yang menunjukkan cara kerja jaringan Bonsai RiscZero.
(Sumber:
Keindahan dari desain jaringan Bonsai adalah perhitungan dapat diinisialisasi, diverifikasi, dan menghasilkan semua on-chain. Semua ini terdengar seperti utopia, tetapi bukti STARK juga menimbulkan masalah - biaya verifikasi terlalu tinggi.
Bukti Nova tampaknya sangat cocok untuk komputasi berulang (skema pelipatannya hemat biaya) dan komputasi kecil, yang dapat menjadikan Lurk solusi yang baik untuk verifikasi inferensi ML.
Siapa pemenangnya?
(Sumber: IOSG Ventures)
Beberapa sistem zk-SNARK memerlukan proses penyiapan tepercaya selama fase penyiapan awal, menghasilkan kumpulan parameter awal. Asumsi kepercayaan di sini adalah bahwa penyiapan tepercaya dilakukan dengan jujur, tanpa perilaku jahat atau perusakan. Jika diserang, itu bisa mengarah pada pembuatan bukti yang tidak valid.
Bukti STARK mengasumsikan keamanan tes tingkat rendah untuk memverifikasi properti polinomial tingkat rendah. Mereka juga berasumsi bahwa fungsi hash berperilaku seperti oracle acak.
Implementasi yang tepat dari kedua sistem juga merupakan asumsi keamanan.
Jaringan SMPC bergantung pada hal berikut:
OTM adalah protokol perhitungan multi-pihak yang dirancang untuk melindungi privasi peserta. Ini mencapai perlindungan privasi dengan memungkinkan peserta untuk tidak mengungkapkan data masukan mereka dalam perhitungan. Oleh karena itu, peserta yang "jujur tapi ingin tahu" tidak ada karena mereka tidak dapat berkomunikasi dengan node lain dalam upaya mengakses informasi yang mendasarinya.
Apakah ada pemenang yang jelas?Kami tidak tahu. Tetapi setiap metode memiliki kelebihannya masing-masing. Sementara NMC terlihat seperti upgrade yang jelas ke SMPC, jaringannya belum hidup atau teruji.
Manfaat menggunakan perhitungan yang dapat diverifikasi ZK adalah aman dan menjaga privasi, tetapi tidak memiliki pembagian rahasia bawaan. Asimetri antara pembuatan bukti dan verifikasi menjadikannya model yang ideal untuk komputasi yang dialihdayakan. Jika sistem menggunakan kalkulasi zk-proof murni, komputer (atau satu node) harus sangat kuat untuk melakukan banyak kalkulasi. Untuk mengaktifkan pembagian beban dan penyeimbangan sekaligus menjaga privasi, harus ada pembagian rahasia. Dalam hal ini, sistem seperti SMPC atau NMC dapat digabungkan dengan generator zk seperti Lurk atau RiscZero untuk membuat infrastruktur komputasi outsourcing terdistribusi yang kuat dan dapat diverifikasi.
Hal ini menjadi semakin penting dalam jaringan MPC/SMPC terpusat saat ini. Penyedia MPC terbesar saat ini adalah Sharemind, dan lapisan verifikasi ZK di atasnya terbukti bermanfaat. Model ekonomi jaringan MPC terdesentralisasi belum berhasil. Secara teori, mode NMC adalah peningkatan dari sistem MPC, tetapi kami belum melihat keberhasilannya.
Dalam perlombaan untuk skema bukti ZK, mungkin tidak ada situasi pemenang-mengambil-semua. Setiap metode bukti dioptimalkan untuk jenis perhitungan tertentu, dan tidak ada yang cocok untuk semua jenis model. Ada banyak jenis tugas komputasi, dan ini juga bergantung pada trade-off yang dibuat pengembang dengan setiap sistem pembuktian. Penulis percaya bahwa sistem berbasis STARK dan sistem berbasis SNARK serta pengoptimalannya di masa mendatang memiliki tempat di masa depan ZK.