Setiap operasi di mainnet Ethereum menghabiskan sejumlah Gas.Jika kami menempatkan semua perhitungan yang diperlukan untuk menjalankan aplikasi dasar pada rantai, aplikasi akan macet atau pengguna akan bangkrut.
Ini melahirkan L2: OPRU memperkenalkan collator untuk menggabungkan banyak transaksi sebelum melakukan mainnet. Ini tidak hanya membantu aplikasi untuk menjalankan keamanan Ethereum, tetapi juga memberi pengguna pengalaman yang lebih baik. Pengguna dapat melakukan transaksi lebih cepat, dan biaya lebih murah. Sementara operasi menjadi lebih murah, masih menggunakan EVM asli sebagai lapisan eksekusi. Mirip dengan ZK Rollups, Scroll dan Polygon zkEVM menggunakan atau akan menggunakan sirkuit zk berbasis EVM, dan zk Proof akan dihasilkan di setiap transaksi atau sejumlah besar transaksi yang dilakukan pada pembuktiannya. Meskipun hal ini memungkinkan pengembang untuk membuat aplikasi "rangkaian penuh", apakah tetap efisien dan hemat biaya untuk menjalankan aplikasi berperforma tinggi?
Apa saja aplikasi berperforma tinggi ini?
Game, buku pesanan on-chain, sosial Web3, pembelajaran mesin, pemodelan genom, dll. Semua ini intensif secara komputasi dan mahal untuk dijalankan di L2. Masalah lain dengan EVM adalah kecepatan perhitungan dan efisiensinya tidak sebaik sistem lain saat ini, seperti SVM (Sealevel Virtual Machine).
Sementara EVM L3 dapat membuat komputasi lebih murah, struktur EVM itu sendiri mungkin bukan cara terbaik untuk melakukan komputasi tinggi karena tidak dapat menghitung operasi paralel. Setiap kali lapisan baru dibangun di atas, untuk menjaga semangat desentralisasi, infrastruktur baru (jaringan node baru) perlu dibangun, yang masih membutuhkan jumlah penyedia yang sama untuk diperluas, atau kumpulan Node yang sama sekali baru. penyedia (individu/perusahaan) untuk menyediakan sumber daya, atau keduanya diperlukan.
Oleh karena itu, setiap kali solusi yang lebih maju dibangun, infrastruktur yang ada harus ditingkatkan, atau lapisan baru dibangun di atasnya. Untuk mengatasi masalah ini, kami memerlukan infrastruktur komputasi pasca-kuantum yang aman, terdesentralisasi, tidak dapat dipercaya, dan berkinerja tinggi yang dapat benar-benar dan efisien menggunakan algoritme kuantum untuk menghitung aplikasi terdesentralisasi.
Alt-L1 seperti Solana, Sui, dan Aptos mampu melakukan eksekusi paralel, tetapi karena sentimen pasar, kurangnya likuiditas, dan kurangnya pengembang di pasar, mereka tidak akan menantang Ethereum. Karena kurangnya kepercayaan, dan parit yang dibangun oleh Ethereum dengan efek jaringan merupakan tonggak sejarah. Sejauh ini, pembunuh ETH/EVM tidak ada. Pertanyaannya di sini adalah, mengapa semua komputasi harus on-chain? Apakah ada sistem penegakan yang sama-sama tidak dapat dipercaya dan terdesentralisasi? Inilah yang dapat dicapai oleh sistem DCompute.
Infrastruktur DCompute harus terdesentralisasi, aman pasca-kuantum, dan tidak dapat dipercaya. Ia tidak memerlukan atau tidak boleh berupa teknologi blockchain/terdistribusi, tetapi sangat penting untuk memverifikasi hasil perhitungan, transisi status yang benar, dan konfirmasi akhir. penting. Beginilah cara kerja rantai EVM. Sambil menjaga keamanan dan kekekalan jaringan, komputasi yang terdesentralisasi, tidak dapat dipercaya, dan aman dapat dipindahkan secara off-chain.
Apa yang terutama kami abaikan di sini adalah masalah ketersediaan data. Posting ini bukannya tanpa fokus pada ketersediaan data, karena solusi seperti Celestia dan EigenDA sudah bergerak ke arah ini.
1: Hanya Komputasi Outsourcing
(来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
2. Komputasi outsourcing dan ketersediaan data
(来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Ketika kami melihat Tipe 1, zk-rollup sudah melakukan ini, tetapi mereka dibatasi oleh EVM, atau diperlukan untuk mengajari pengembang set bahasa/instruksi yang benar-benar baru. Solusi ideal harus efisien, efektif (biaya dan sumber daya), terdesentralisasi, pribadi, dan dapat diverifikasi. Bukti ZK dapat dibangun di server AWS, tetapi tidak terdesentralisasi. Solusi seperti Nillion dan Nexus mencoba memecahkan masalah komputasi umum dengan cara terdesentralisasi. Tetapi solusi ini tidak dapat diverifikasi tanpa bukti ZK.
Tipe 2 menggabungkan model komputasi off-chain dengan lapisan ketersediaan data yang tetap terpisah, tetapi komputasi masih perlu diverifikasi secara on-chain.
Mari kita lihat berbagai model komputasi terdesentralisasi yang tersedia saat ini yang tidak sepenuhnya dapat dipercaya dan mungkin sepenuhnya tidak dapat dipercaya.
Komputasi Enklave Aman/Lingkungan Penggunaan Tepercaya
TEE (Lingkungan Eksekusi Tepercaya) seperti kotak khusus di dalam komputer atau smartphone. Itu memiliki kunci dan kuncinya sendiri, dan hanya program tertentu (disebut aplikasi tepercaya) yang dapat mengaksesnya. Saat aplikasi tepercaya ini berjalan di dalam TEE, aplikasi tersebut dilindungi oleh program lain dan bahkan sistem operasi itu sendiri.
Ini seperti tempat persembunyian rahasia yang hanya bisa dimasuki oleh beberapa teman spesial. Contoh TEE yang paling umum adalah Enklave Aman, yang ada di perangkat yang kami gunakan, seperti chip T1 Apple dan SGX Intel, untuk menjalankan operasi penting di dalam perangkat, seperti FaceID.
Karena TEE adalah sistem yang terisolasi, proses autentikasi tidak dapat dikompromikan karena asumsi kepercayaan dalam autentikasi. Anggap saja memiliki pintu keamanan yang Anda yakini aman karena Intel atau Apple membuatnya, tetapi ada cukup banyak pembobol keamanan di dunia (termasuk peretas dan komputer lain) yang dapat menembus pintu keamanan tersebut. TEE bukanlah "keamanan pasca-kuantum", yang berarti komputer kuantum dengan sumber daya tidak terbatas dapat meretas keamanan TEE. Karena komputer dengan cepat menjadi lebih kuat, kita harus membangun sistem komputasi jangka panjang dan skema kriptografi dengan mempertimbangkan keamanan pasca-kuantum.
Komputasi Multi-Partai Aman (SMPC)
SMPC (Secure Multi-Party Computing) juga merupakan solusi komputasi terkenal di industri teknologi blockchain.Alur kerja umum dalam jaringan SMPC akan terdiri dari tiga bagian berikut:
Langkah 1: Ubah input yang dihitung menjadi share dan distribusikan di antara node SMPC.
Langkah 2: Lakukan perhitungan aktual, biasanya melibatkan pertukaran pesan antar node SMPC. Pada akhir langkah ini, setiap node akan memiliki bagian dari nilai keluaran yang dihitung.
Langkah 3: Kirim pembagian hasil ke satu atau lebih node hasil, yang menjalankan LSS (Algoritma Pemulihan Berbagi Rahasia) untuk merekonstruksi hasil keluaran.
Bayangkan sebuah jalur produksi mobil, di mana bangunan dan pembuatan komponen mobil (mesin, pintu, kaca spion) dialihdayakan ke original equipment manufacturer (OEM) (node pekerjaan), dan kemudian ada jalur perakitan yang menyatukan semua komponen. untuk membuat mobil (menghasilkan node).
Berbagi rahasia penting untuk model komputasi terdesentralisasi yang menjaga privasi. Ini mencegah satu pihak untuk mendapatkan "rahasia" penuh (masukan dalam kasus ini) dan dengan jahat menghasilkan keluaran yang salah. SMPC mungkin salah satu sistem terdesentralisasi termudah dan teraman. Sementara model yang sepenuhnya terdesentralisasi saat ini tidak ada, secara logis mungkin.
Penyedia MPC seperti Sharemind menyediakan infrastruktur MPC untuk komputasi, namun penyedia masih terpusat. Bagaimana memastikan privasi, bagaimana memastikan bahwa jaringan (atau Sharemind) tidak berbahaya Ini adalah asal dari bukti zk dan perhitungan zk yang dapat diverifikasi.
Komputasi Pesan Nihil(NMC)
NMC adalah metode komputasi terdistribusi baru yang dikembangkan oleh tim Nillion. Ini adalah versi MPC yang ditingkatkan, di mana node tidak perlu berkomunikasi dengan berinteraksi melalui hasil. Untuk melakukan ini, mereka menggunakan primitif kriptografi yang disebut One-Time Masking, yang menggunakan serangkaian angka acak yang disebut faktor buta untuk menutupi Rahasia, mirip dengan padding satu kali. OTM bertujuan untuk memberikan kebenaran dengan cara yang efisien, yang berarti bahwa node NMC tidak perlu bertukar pesan apapun untuk melakukan perhitungan. Ini berarti NMC tidak akan memiliki masalah skalabilitas SMPC.
Komputasi Tanpa Pengetahuan yang Dapat Diverifikasi
Komputasi yang Dapat Diverifikasi ZK (Komputasi yang Dapat Diverifikasi ZK) adalah untuk menghasilkan bukti tanpa pengetahuan untuk sekumpulan input dan fungsi, dan untuk membuktikan bahwa setiap perhitungan yang dilakukan oleh sistem akan dilakukan dengan benar. Meskipun perhitungan verifikasi ZK masih baru, ini sudah menjadi bagian yang sangat penting dari peta jalan perluasan jaringan Ethereum,
ZK membuktikan bahwa ada berbagai bentuk implementasi (seperti yang ditunjukkan pada gambar di bawah ini, menurut ringkasan di makalah "Off-Chaining_Models"):
(Sumber: IOSG Ventures, Model Off-chaining dan Pendekatan untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Di atas kami memiliki pemahaman dasar tentang penerapan bukti zk, jadi apa syarat penggunaan bukti ZK untuk memverifikasi perhitungan?
Pertama-tama, kita harus memilih bukti primitif. Bukti primitif yang ideal memiliki biaya rendah untuk menghasilkan bukti, tidak memerlukan memori tinggi, dan mudah diverifikasi
Kedua, pilih sirkuit zk yang dirancang untuk menghasilkan bukti primitif di atas secara komputasi
Terakhir, dalam sistem/jaringan komputasi, fungsi yang diberikan dihitung pada input yang diberikan dan output diberikan.
Dilema Pengembang - Buktikan Dilema Efisiensi
Hal lain yang harus saya katakan adalah ambang batas untuk membangun sirkuit masih sangat tinggi. Tidak mudah bagi pengembang untuk mempelajari Soliditas. Sekarang pengembang diharuskan mempelajari Circom untuk membangun sirkuit, atau mempelajari bahasa pemrograman tertentu (seperti Kairo) untuk membangun zk-apps sepertinya prospek yang jauh.
Seperti yang ditunjukkan statistik di atas, **membuat lingkungan Web3 lebih cocok untuk pengembangan tampaknya lebih berkelanjutan daripada membawa pengembang ke lingkungan pengembangan Web3 baru. **
Jika ZK adalah masa depan Web3, dan aplikasi Web3 perlu dibangun menggunakan keterampilan pengembang yang ada, maka sirkuit ZK perlu dirancang sedemikian rupa sehingga mendukung perhitungan yang dilakukan oleh algoritme yang ditulis dalam bahasa seperti Java atau Rust untuk menghasilkan bukti .
Solusi semacam itu memang ada, dan saya memikirkan dua tim: RiscZero dan Lurk Labs. Kedua tim berbagi visi yang sangat mirip bahwa mereka mengizinkan pengembang untuk membuat aplikasi zk tanpa melalui kurva pembelajaran yang curam.
Ini masih awal untuk Lurk Labs, tetapi tim telah mengerjakan proyek ini sejak lama. Mereka fokus untuk menghasilkan Nova Proofs melalui sirkuit tujuan umum. Bukti Nova diusulkan oleh Abhiram Kothapalli dari Carnegie Mellon University dan Srinath Setty dari Microsoft Research dan Ioanna Tziallae dari New York University. Dibandingkan dengan sistem SNARK lainnya, Nova terbukti memiliki keunggulan khusus dalam melakukan perhitungan yang dapat diverifikasi secara inkremental (IVC). Incremental Verifiable Computation (IVC) adalah sebuah konsep dalam ilmu komputer dan kriptografi yang bertujuan untuk memungkinkan verifikasi komputasi tanpa menghitung ulang seluruh komputasi dari awal. Bukti perlu dioptimalkan untuk IVC ketika waktu komputasi panjang dan kompleks.
Keindahan dari desain jaringan Bonsai adalah perhitungan dapat diinisialisasi, diverifikasi, dan menghasilkan semua on-chain. Semua ini terdengar seperti utopia, tetapi bukti STARK juga menimbulkan masalah - biaya verifikasi terlalu tinggi.
Bukti Nova tampaknya sangat cocok untuk komputasi berulang (skema pelipatannya hemat biaya) dan komputasi kecil, yang dapat menjadikan Lurk solusi yang baik untuk verifikasi inferensi ML.
Siapa pemenangnya?
(Sumber: IOSG Ventures)
Beberapa sistem zk-SNARK memerlukan proses penyiapan tepercaya selama fase penyiapan awal, menghasilkan kumpulan parameter awal. Asumsi kepercayaan di sini adalah bahwa penyiapan tepercaya dilakukan dengan jujur, tanpa perilaku jahat atau perusakan. Jika diserang, itu bisa mengarah pada pembuatan bukti yang tidak valid.
Bukti STARK mengasumsikan keamanan tes tingkat rendah untuk memverifikasi properti polinomial tingkat rendah. Mereka juga berasumsi bahwa fungsi hash berperilaku seperti oracle acak.
Implementasi yang tepat dari kedua sistem juga merupakan asumsi keamanan.
Jaringan SMPC bergantung pada hal berikut:
*Peserta SMPC dapat menyertakan peserta "jujur tapi ingin tahu" yang dapat mencoba mengakses informasi mendasar apa pun dengan berkomunikasi dengan node lain.
*Keamanan jaringan SMPC bergantung pada asumsi bahwa peserta menjalankan protokol dengan benar dan tidak sengaja menimbulkan kesalahan atau perilaku berbahaya.
Protokol SMPC tertentu mungkin memerlukan fase penyiapan tepercaya untuk menghasilkan parameter terenkripsi atau nilai awal. Asumsi kepercayaan di sini adalah bahwa pengaturan tepercaya ditegakkan dengan jujur.
Sama seperti jaringan SMPC, asumsi keamanannya tetap sama, tetapi karena adanya OTM (Off-The-Grid Multi-party Computation), tidak ada peserta yang "jujur tapi penasaran".
OTM adalah protokol perhitungan multi-pihak yang dirancang untuk melindungi privasi peserta. Ini mencapai perlindungan privasi dengan memungkinkan peserta untuk tidak mengungkapkan data masukan mereka dalam perhitungan. Oleh karena itu, peserta yang "jujur tapi ingin tahu" tidak akan ada, karena mereka tidak akan dapat berkomunikasi dengan node lain dalam upaya mengakses informasi yang mendasarinya.
Apakah ada pemenang yang jelas? Kami tidak tahu. Tetapi setiap metode memiliki kelebihannya masing-masing. Sementara NMC terlihat seperti upgrade yang jelas ke SMPC, jaringannya belum hidup atau teruji.
Manfaat menggunakan perhitungan ZK yang dapat diverifikasi adalah aman dan menjaga privasi, tetapi tidak memiliki pembagian rahasia bawaan. Asimetri antara pembuatan bukti dan verifikasi menjadikannya model yang ideal untuk komputasi yang dialihdayakan. Jika sistem menggunakan kalkulasi zk-proof murni, komputer (atau satu node) harus sangat kuat untuk melakukan banyak kalkulasi. Untuk mengaktifkan pembagian beban dan penyeimbangan sekaligus menjaga privasi, harus ada pembagian rahasia. Dalam hal ini, sistem seperti SMPC atau NMC dapat digabungkan dengan generator zk seperti Lurk atau RiscZero untuk membuat infrastruktur komputasi outsourcing terdistribusi yang kuat dan dapat diverifikasi.
Ini menjadi lebih penting saat ini karena jaringan MPC/SMPC terpusat. Penyedia MPC terbesar saat ini adalah Sharemind, dan lapisan verifikasi ZK di atasnya terbukti berguna. Model ekonomi jaringan MPC terdesentralisasi belum berhasil. Secara teori, mode NMC adalah peningkatan dari sistem MPC, tetapi kami belum melihat keberhasilannya.
Dalam perlombaan untuk skema bukti ZK, mungkin tidak ada situasi pemenang-mengambil-semua. Setiap metode bukti dioptimalkan untuk jenis perhitungan tertentu, dan tidak ada yang cocok untuk semua jenis model. Ada banyak jenis tugas komputasi, dan ini juga bergantung pada trade-off yang dibuat pengembang dengan setiap sistem pembuktian. Penulis percaya bahwa sistem berbasis STARK dan sistem berbasis SNARK serta pengoptimalannya di masa mendatang memiliki tempat di masa depan ZK.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Di bawah ledakan inovasi EVM, siapa pemenangnya?
Oleh Siddharth Rao, IOSG Ventures
Tentang kinerja Ethereum Virtual Machine (EVM)
Setiap operasi di mainnet Ethereum menghabiskan sejumlah Gas.Jika kami menempatkan semua perhitungan yang diperlukan untuk menjalankan aplikasi dasar pada rantai, aplikasi akan macet atau pengguna akan bangkrut.
Ini melahirkan L2: OPRU memperkenalkan collator untuk menggabungkan banyak transaksi sebelum melakukan mainnet. Ini tidak hanya membantu aplikasi untuk menjalankan keamanan Ethereum, tetapi juga memberi pengguna pengalaman yang lebih baik. Pengguna dapat melakukan transaksi lebih cepat, dan biaya lebih murah. Sementara operasi menjadi lebih murah, masih menggunakan EVM asli sebagai lapisan eksekusi. Mirip dengan ZK Rollups, Scroll dan Polygon zkEVM menggunakan atau akan menggunakan sirkuit zk berbasis EVM, dan zk Proof akan dihasilkan di setiap transaksi atau sejumlah besar transaksi yang dilakukan pada pembuktiannya. Meskipun hal ini memungkinkan pengembang untuk membuat aplikasi "rangkaian penuh", apakah tetap efisien dan hemat biaya untuk menjalankan aplikasi berperforma tinggi?
Apa saja aplikasi berperforma tinggi ini?
Game, buku pesanan on-chain, sosial Web3, pembelajaran mesin, pemodelan genom, dll. Semua ini intensif secara komputasi dan mahal untuk dijalankan di L2. Masalah lain dengan EVM adalah kecepatan perhitungan dan efisiensinya tidak sebaik sistem lain saat ini, seperti SVM (Sealevel Virtual Machine).
Sementara EVM L3 dapat membuat komputasi lebih murah, struktur EVM itu sendiri mungkin bukan cara terbaik untuk melakukan komputasi tinggi karena tidak dapat menghitung operasi paralel. Setiap kali lapisan baru dibangun di atas, untuk menjaga semangat desentralisasi, infrastruktur baru (jaringan node baru) perlu dibangun, yang masih membutuhkan jumlah penyedia yang sama untuk diperluas, atau kumpulan Node yang sama sekali baru. penyedia (individu/perusahaan) untuk menyediakan sumber daya, atau keduanya diperlukan.
Oleh karena itu, setiap kali solusi yang lebih maju dibangun, infrastruktur yang ada harus ditingkatkan, atau lapisan baru dibangun di atasnya. Untuk mengatasi masalah ini, kami memerlukan infrastruktur komputasi pasca-kuantum yang aman, terdesentralisasi, tidak dapat dipercaya, dan berkinerja tinggi yang dapat benar-benar dan efisien menggunakan algoritme kuantum untuk menghitung aplikasi terdesentralisasi.
Alt-L1 seperti Solana, Sui, dan Aptos mampu melakukan eksekusi paralel, tetapi karena sentimen pasar, kurangnya likuiditas, dan kurangnya pengembang di pasar, mereka tidak akan menantang Ethereum. Karena kurangnya kepercayaan, dan parit yang dibangun oleh Ethereum dengan efek jaringan merupakan tonggak sejarah. Sejauh ini, pembunuh ETH/EVM tidak ada. Pertanyaannya di sini adalah, mengapa semua komputasi harus on-chain? Apakah ada sistem penegakan yang sama-sama tidak dapat dipercaya dan terdesentralisasi? Inilah yang dapat dicapai oleh sistem DCompute.
Infrastruktur DCompute harus terdesentralisasi, aman pasca-kuantum, dan tidak dapat dipercaya. Ia tidak memerlukan atau tidak boleh berupa teknologi blockchain/terdistribusi, tetapi sangat penting untuk memverifikasi hasil perhitungan, transisi status yang benar, dan konfirmasi akhir. penting. Beginilah cara kerja rantai EVM. Sambil menjaga keamanan dan kekekalan jaringan, komputasi yang terdesentralisasi, tidak dapat dipercaya, dan aman dapat dipindahkan secara off-chain.
Apa yang terutama kami abaikan di sini adalah masalah ketersediaan data. Posting ini bukannya tanpa fokus pada ketersediaan data, karena solusi seperti Celestia dan EigenDA sudah bergerak ke arah ini.
1: Hanya Komputasi Outsourcing
(来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
2. Komputasi outsourcing dan ketersediaan data
(来源:Model dan Pendekatan Off-chain untuk Komputasi Off-chain, Jacob Eberhardt & Jonathan Heiss)
Ketika kami melihat Tipe 1, zk-rollup sudah melakukan ini, tetapi mereka dibatasi oleh EVM, atau diperlukan untuk mengajari pengembang set bahasa/instruksi yang benar-benar baru. Solusi ideal harus efisien, efektif (biaya dan sumber daya), terdesentralisasi, pribadi, dan dapat diverifikasi. Bukti ZK dapat dibangun di server AWS, tetapi tidak terdesentralisasi. Solusi seperti Nillion dan Nexus mencoba memecahkan masalah komputasi umum dengan cara terdesentralisasi. Tetapi solusi ini tidak dapat diverifikasi tanpa bukti ZK.
Tipe 2 menggabungkan model komputasi off-chain dengan lapisan ketersediaan data yang tetap terpisah, tetapi komputasi masih perlu diverifikasi secara on-chain.
Mari kita lihat berbagai model komputasi terdesentralisasi yang tersedia saat ini yang tidak sepenuhnya dapat dipercaya dan mungkin sepenuhnya tidak dapat dipercaya.
Perhitungan Alternatif s
Peta Ekologi Komputasi Outsourcing Ethereum (Sumber: IOSG Ventures)
TEE (Lingkungan Eksekusi Tepercaya) seperti kotak khusus di dalam komputer atau smartphone. Itu memiliki kunci dan kuncinya sendiri, dan hanya program tertentu (disebut aplikasi tepercaya) yang dapat mengaksesnya. Saat aplikasi tepercaya ini berjalan di dalam TEE, aplikasi tersebut dilindungi oleh program lain dan bahkan sistem operasi itu sendiri.
Ini seperti tempat persembunyian rahasia yang hanya bisa dimasuki oleh beberapa teman spesial. Contoh TEE yang paling umum adalah Enklave Aman, yang ada di perangkat yang kami gunakan, seperti chip T1 Apple dan SGX Intel, untuk menjalankan operasi penting di dalam perangkat, seperti FaceID.
Karena TEE adalah sistem yang terisolasi, proses autentikasi tidak dapat dikompromikan karena asumsi kepercayaan dalam autentikasi. Anggap saja memiliki pintu keamanan yang Anda yakini aman karena Intel atau Apple membuatnya, tetapi ada cukup banyak pembobol keamanan di dunia (termasuk peretas dan komputer lain) yang dapat menembus pintu keamanan tersebut. TEE bukanlah "keamanan pasca-kuantum", yang berarti komputer kuantum dengan sumber daya tidak terbatas dapat meretas keamanan TEE. Karena komputer dengan cepat menjadi lebih kuat, kita harus membangun sistem komputasi jangka panjang dan skema kriptografi dengan mempertimbangkan keamanan pasca-kuantum.
SMPC (Secure Multi-Party Computing) juga merupakan solusi komputasi terkenal di industri teknologi blockchain.Alur kerja umum dalam jaringan SMPC akan terdiri dari tiga bagian berikut:
Langkah 1: Ubah input yang dihitung menjadi share dan distribusikan di antara node SMPC.
Langkah 2: Lakukan perhitungan aktual, biasanya melibatkan pertukaran pesan antar node SMPC. Pada akhir langkah ini, setiap node akan memiliki bagian dari nilai keluaran yang dihitung.
Langkah 3: Kirim pembagian hasil ke satu atau lebih node hasil, yang menjalankan LSS (Algoritma Pemulihan Berbagi Rahasia) untuk merekonstruksi hasil keluaran.
Bayangkan sebuah jalur produksi mobil, di mana bangunan dan pembuatan komponen mobil (mesin, pintu, kaca spion) dialihdayakan ke original equipment manufacturer (OEM) (node pekerjaan), dan kemudian ada jalur perakitan yang menyatukan semua komponen. untuk membuat mobil (menghasilkan node).
Berbagi rahasia penting untuk model komputasi terdesentralisasi yang menjaga privasi. Ini mencegah satu pihak untuk mendapatkan "rahasia" penuh (masukan dalam kasus ini) dan dengan jahat menghasilkan keluaran yang salah. SMPC mungkin salah satu sistem terdesentralisasi termudah dan teraman. Sementara model yang sepenuhnya terdesentralisasi saat ini tidak ada, secara logis mungkin.
Penyedia MPC seperti Sharemind menyediakan infrastruktur MPC untuk komputasi, namun penyedia masih terpusat. Bagaimana memastikan privasi, bagaimana memastikan bahwa jaringan (atau Sharemind) tidak berbahaya Ini adalah asal dari bukti zk dan perhitungan zk yang dapat diverifikasi.
NMC adalah metode komputasi terdistribusi baru yang dikembangkan oleh tim Nillion. Ini adalah versi MPC yang ditingkatkan, di mana node tidak perlu berkomunikasi dengan berinteraksi melalui hasil. Untuk melakukan ini, mereka menggunakan primitif kriptografi yang disebut One-Time Masking, yang menggunakan serangkaian angka acak yang disebut faktor buta untuk menutupi Rahasia, mirip dengan padding satu kali. OTM bertujuan untuk memberikan kebenaran dengan cara yang efisien, yang berarti bahwa node NMC tidak perlu bertukar pesan apapun untuk melakukan perhitungan. Ini berarti NMC tidak akan memiliki masalah skalabilitas SMPC.
Komputasi yang Dapat Diverifikasi ZK (Komputasi yang Dapat Diverifikasi ZK) adalah untuk menghasilkan bukti tanpa pengetahuan untuk sekumpulan input dan fungsi, dan untuk membuktikan bahwa setiap perhitungan yang dilakukan oleh sistem akan dilakukan dengan benar. Meskipun perhitungan verifikasi ZK masih baru, ini sudah menjadi bagian yang sangat penting dari peta jalan perluasan jaringan Ethereum,
ZK membuktikan bahwa ada berbagai bentuk implementasi (seperti yang ditunjukkan pada gambar di bawah ini, menurut ringkasan di makalah "Off-Chaining_Models"):
Di atas kami memiliki pemahaman dasar tentang penerapan bukti zk, jadi apa syarat penggunaan bukti ZK untuk memverifikasi perhitungan?
Dilema Pengembang - Buktikan Dilema Efisiensi
Hal lain yang harus saya katakan adalah ambang batas untuk membangun sirkuit masih sangat tinggi. Tidak mudah bagi pengembang untuk mempelajari Soliditas. Sekarang pengembang diharuskan mempelajari Circom untuk membangun sirkuit, atau mempelajari bahasa pemrograman tertentu (seperti Kairo) untuk membangun zk-apps sepertinya prospek yang jauh.
Seperti yang ditunjukkan statistik di atas, **membuat lingkungan Web3 lebih cocok untuk pengembangan tampaknya lebih berkelanjutan daripada membawa pengembang ke lingkungan pengembangan Web3 baru. **
Jika ZK adalah masa depan Web3, dan aplikasi Web3 perlu dibangun menggunakan keterampilan pengembang yang ada, maka sirkuit ZK perlu dirancang sedemikian rupa sehingga mendukung perhitungan yang dilakukan oleh algoritme yang ditulis dalam bahasa seperti Java atau Rust untuk menghasilkan bukti .
Solusi semacam itu memang ada, dan saya memikirkan dua tim: RiscZero dan Lurk Labs. Kedua tim berbagi visi yang sangat mirip bahwa mereka mengizinkan pengembang untuk membuat aplikasi zk tanpa melalui kurva pembelajaran yang curam.
Ini masih awal untuk Lurk Labs, tetapi tim telah mengerjakan proyek ini sejak lama. Mereka fokus untuk menghasilkan Nova Proofs melalui sirkuit tujuan umum. Bukti Nova diusulkan oleh Abhiram Kothapalli dari Carnegie Mellon University dan Srinath Setty dari Microsoft Research dan Ioanna Tziallae dari New York University. Dibandingkan dengan sistem SNARK lainnya, Nova terbukti memiliki keunggulan khusus dalam melakukan perhitungan yang dapat diverifikasi secara inkremental (IVC). Incremental Verifiable Computation (IVC) adalah sebuah konsep dalam ilmu komputer dan kriptografi yang bertujuan untuk memungkinkan verifikasi komputasi tanpa menghitung ulang seluruh komputasi dari awal. Bukti perlu dioptimalkan untuk IVC ketika waktu komputasi panjang dan kompleks.
Keindahan dari desain jaringan Bonsai adalah perhitungan dapat diinisialisasi, diverifikasi, dan menghasilkan semua on-chain. Semua ini terdengar seperti utopia, tetapi bukti STARK juga menimbulkan masalah - biaya verifikasi terlalu tinggi.
Bukti Nova tampaknya sangat cocok untuk komputasi berulang (skema pelipatannya hemat biaya) dan komputasi kecil, yang dapat menjadikan Lurk solusi yang baik untuk verifikasi inferensi ML.
Siapa pemenangnya?
(Sumber: IOSG Ventures)
Beberapa sistem zk-SNARK memerlukan proses penyiapan tepercaya selama fase penyiapan awal, menghasilkan kumpulan parameter awal. Asumsi kepercayaan di sini adalah bahwa penyiapan tepercaya dilakukan dengan jujur, tanpa perilaku jahat atau perusakan. Jika diserang, itu bisa mengarah pada pembuatan bukti yang tidak valid.
Bukti STARK mengasumsikan keamanan tes tingkat rendah untuk memverifikasi properti polinomial tingkat rendah. Mereka juga berasumsi bahwa fungsi hash berperilaku seperti oracle acak.
Implementasi yang tepat dari kedua sistem juga merupakan asumsi keamanan.
Jaringan SMPC bergantung pada hal berikut:
*Peserta SMPC dapat menyertakan peserta "jujur tapi ingin tahu" yang dapat mencoba mengakses informasi mendasar apa pun dengan berkomunikasi dengan node lain. *Keamanan jaringan SMPC bergantung pada asumsi bahwa peserta menjalankan protokol dengan benar dan tidak sengaja menimbulkan kesalahan atau perilaku berbahaya.
OTM adalah protokol perhitungan multi-pihak yang dirancang untuk melindungi privasi peserta. Ini mencapai perlindungan privasi dengan memungkinkan peserta untuk tidak mengungkapkan data masukan mereka dalam perhitungan. Oleh karena itu, peserta yang "jujur tapi ingin tahu" tidak akan ada, karena mereka tidak akan dapat berkomunikasi dengan node lain dalam upaya mengakses informasi yang mendasarinya.
Apakah ada pemenang yang jelas? Kami tidak tahu. Tetapi setiap metode memiliki kelebihannya masing-masing. Sementara NMC terlihat seperti upgrade yang jelas ke SMPC, jaringannya belum hidup atau teruji.
Manfaat menggunakan perhitungan ZK yang dapat diverifikasi adalah aman dan menjaga privasi, tetapi tidak memiliki pembagian rahasia bawaan. Asimetri antara pembuatan bukti dan verifikasi menjadikannya model yang ideal untuk komputasi yang dialihdayakan. Jika sistem menggunakan kalkulasi zk-proof murni, komputer (atau satu node) harus sangat kuat untuk melakukan banyak kalkulasi. Untuk mengaktifkan pembagian beban dan penyeimbangan sekaligus menjaga privasi, harus ada pembagian rahasia. Dalam hal ini, sistem seperti SMPC atau NMC dapat digabungkan dengan generator zk seperti Lurk atau RiscZero untuk membuat infrastruktur komputasi outsourcing terdistribusi yang kuat dan dapat diverifikasi.
Ini menjadi lebih penting saat ini karena jaringan MPC/SMPC terpusat. Penyedia MPC terbesar saat ini adalah Sharemind, dan lapisan verifikasi ZK di atasnya terbukti berguna. Model ekonomi jaringan MPC terdesentralisasi belum berhasil. Secara teori, mode NMC adalah peningkatan dari sistem MPC, tetapi kami belum melihat keberhasilannya.
Dalam perlombaan untuk skema bukti ZK, mungkin tidak ada situasi pemenang-mengambil-semua. Setiap metode bukti dioptimalkan untuk jenis perhitungan tertentu, dan tidak ada yang cocok untuk semua jenis model. Ada banyak jenis tugas komputasi, dan ini juga bergantung pada trade-off yang dibuat pengembang dengan setiap sistem pembuktian. Penulis percaya bahwa sistem berbasis STARK dan sistem berbasis SNARK serta pengoptimalannya di masa mendatang memiliki tempat di masa depan ZK.