"Saat ini kami tidak berpikir untuk mengatur AI. Pada tahap ini, jelas bahwa kami ingin dapat belajar dari industri. Memahami bagaimana AI digunakan sebelum kami memutuskan apakah kami perlu berbuat lebih banyak dari perspektif regulasi."
Pemerintah Singapura meminta perusahaan untuk berkolaborasi dalam pengembangan "perangkat pengujian AI pertama di dunia" Verifikasi AI, dan Google, Microsoft, dan IBM semuanya telah bergabung dengan Yayasan Verifikasi AI.
Dengan banyaknya negara yang menjajaki regulasi kecerdasan buatan (AI) generatif, pemerintah Singapura menyatakan tidak terburu-buru untuk merumuskan regulasi kecerdasan buatan.
Pada 19 Juni, waktu setempat, Lee Wan Sie, direktur intelijen dan data buatan tepercaya di Otoritas Pengembangan Media Informasi dan Komunikasi (IMDA) Singapura, mengatakan dalam sebuah wawancara dengan CNBC: "Saat ini kami tidak mempertimbangkan regulasi kecerdasan buatan. "
Namun, pemerintah Singapura juga bekerja untuk mempromosikan penggunaan kecerdasan buatan yang bertanggung jawab, meminta perusahaan untuk berkolaborasi dalam Verifikasi AI, "perangkat pengujian AI pertama di dunia". Verifikasi AI, yang mencakup kerangka kerja pengujian tata kelola AI dan perangkat perangkat lunak yang memungkinkan pengguna menguji model AI secara teknis dan mendokumentasikan pemeriksaan proses, diluncurkan sebagai proyek percontohan pada tahun 2022, dengan raksasa teknologi IBM dan Singapore Airlines telah berpartisipasi.
Pemerintah dan dunia usaha menjalin kerjasama
Kekhawatiran tentang risiko AI generatif telah meningkat dalam beberapa bulan terakhir karena chatbot ChatGPT telah menjadi hal yang populer. "Pada tahap ini, jelas bahwa kami ingin belajar dari industri. Kami perlu memahami bagaimana AI digunakan sebelum kami memutuskan apakah kami perlu berbuat lebih banyak dari sisi regulasi," kata Li Wanshi, yang diperkenalkan pada tahap selanjutnya.
"Kami menyadari bahwa sebagai negara kecil, sebagai pemerintah, kami mungkin tidak dapat menyelesaikan semua masalah. Jadi, sangat penting bagi kami untuk bekerja sama dengan industri, lembaga penelitian, dan pemerintah lainnya," kata Li.
Dilaporkan bahwa Google, Microsoft, dan IBM telah bergabung dengan AI Verify Foundation, komunitas sumber terbuka global yang dirancang untuk membahas standar dan praktik terbaik AI serta berkolaborasi dalam tata kelola AI. “Microsoft memuji pemerintah Singapura atas kepemimpinannya di bidang ini," kata Presiden Microsoft Brad Smith dalam rilisnya. "Dengan menciptakan sumber daya praktis seperti kerangka kerja dan perangkat pengujian tata kelola AI, Singapura membantu organisasi membangun proses tata kelola dan pengujian yang kuat."
"Industri ini jauh lebih aktif dalam hal AI. Kadang-kadang, dalam hal peraturan, Anda dapat melihat kesenjangan antara apa yang dipikirkan pembuat kebijakan tentang AI dan apa yang sebenarnya dilakukan oleh bisnis," kata Konsultan Komite Penasihat AI Nasional AS Haniyeh Mahmoudian kepada CNBC, "Jadi dengan jenis kolaborasi ini, khususnya pembuatan jenis perangkat ini, dengan masukan dari industri. Ini bermanfaat bagi kedua belah pihak."
Pada KTT Asia Tech x Singapore pada bulan Juni, Menteri Komunikasi dan Informasi Singapura Josephine Teo mengatakan bahwa meskipun pemerintah mengakui potensi risiko AI, pemerintah tidak dapat mempromosikan penggunaan etis AI sendiri, "dengan pengetahuan profesional dari sektor swasta dapat terlibat secara berarti dengan kami dalam mencapai tujuan ini."
Sementara "ada ketakutan dan kekhawatiran yang sangat nyata tentang pengembangan AI," katanya, AI perlu diarahkan secara aktif ke penggunaan yang bermanfaat dan jauh dari yang buruk. "Ini adalah inti dari bagaimana Singapura memandang AI."
Sementara itu, beberapa negara telah mengambil langkah untuk mengatur AI. Pada 14 Juni, Parlemen Eropa mengesahkan "Undang-Undang Kecerdasan Buatan" (AI Act), memberlakukan pembatasan yang lebih besar pada alat kecerdasan buatan generatif seperti ChatGPT, dan pengembang akan diminta untuk mengirimkan sistem untuk ditinjau sebelum dirilis. Presiden Prancis Emmanuel Macron juga mengatakan pekan lalu bahwa regulasi AI diperlukan. Inggris Raya sedang menyiapkan Satuan Tugas Model Yayasan AI untuk mempelajari risiko keamanan yang dibawa oleh kecerdasan buatan, dan sedang mempersiapkan KTT Keamanan AI Global, dengan maksud untuk menjadikannya pusat geografis regulasi keamanan AI global.
Bapak ChatGPT berbicara di Singapura
Stella Cramer, kepala Asia-Pasifik di grup teknologi firma hukum internasional Clifford Chance, mengatakan Singapura dapat bertindak sebagai "pelayan" di wilayah tersebut, yang memungkinkan inovasi terjadi di lingkungan yang aman. Clifford Chance bekerja sama dengan regulator untuk mengembangkan serangkaian pedoman dan kerangka kerja pasar.
"Apa yang kami lihat adalah pendekatan yang konsisten seputar keterbukaan dan kolaborasi. Singapura dipandang sebagai yurisdiksi yang aman untuk menguji dan meluncurkan teknologi Anda dalam lingkungan yang terkendali dengan dukungan regulator," kata Cramer.
Ide ini sepertinya sejalan dengan ide CEO OpenAI Sam Altman (Sam Altman). Pada tanggal 13 Juni, Altman menghadiri acara tur global "Fireside Dialogue" OpenAI di Singapore Management University (Singapore Management University), di mana dia menjelaskan tentang cara mengelola risiko AI. Dia yakin fokusnya adalah memberi tahu publik tentang dan mengalami perkembangan baru, yang akan memastikan bahwa setiap potensi bahaya terdeteksi dan ditangani sebelum dampaknya menyebar luas.
"Ini lebih efisien daripada mengembangkan dan menguji teknologi di balik pintu tertutup dan merilisnya ke publik dengan asumsi semua kemungkinan risiko telah diidentifikasi dan dicegah," kata Altman. Pelajari semuanya. Tidak peduli seberapa banyak produk diuji untuk meminimalkan bahaya, seseorang akan melakukannya temukan cara untuk mengeksploitasinya dengan cara yang tidak pernah terpikirkan oleh pembuatnya.” Hal ini berlaku untuk teknologi baru apa pun, catatnya.
“Kami percaya bahwa penyebaran iteratif adalah satu-satunya cara untuk melakukan ini.” Altman menambahkan bahwa pengenalan versi baru secara bertahap juga akan memungkinkan masyarakat untuk beradaptasi dengan perkembangan AI, sambil menghasilkan umpan balik tentang bagaimana hal itu dapat ditingkatkan.
Singapura saat ini telah meluncurkan beberapa proyek percontohan, seperti FinTech Regulatory Sandbox atau HealthTech Sandbox, bagi para pelaku industri untuk menguji produk mereka di lingkungan langsung sebelum go public. "Kerangka kerja terstruktur dan alat pengujian ini akan membantu memandu kebijakan tata kelola AI untuk memungkinkan perusahaan mengembangkan AI dengan aman dan terjamin," kata Cramer.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Pemerintah Singapura: saat ini tidak berniat untuk mengatur AI, dan sedang mengembangkan alat pengujian AI dengan perusahaan
Asli: Kertas
Dengan banyaknya negara yang menjajaki regulasi kecerdasan buatan (AI) generatif, pemerintah Singapura menyatakan tidak terburu-buru untuk merumuskan regulasi kecerdasan buatan.
Pada 19 Juni, waktu setempat, Lee Wan Sie, direktur intelijen dan data buatan tepercaya di Otoritas Pengembangan Media Informasi dan Komunikasi (IMDA) Singapura, mengatakan dalam sebuah wawancara dengan CNBC: "Saat ini kami tidak mempertimbangkan regulasi kecerdasan buatan. "
Namun, pemerintah Singapura juga bekerja untuk mempromosikan penggunaan kecerdasan buatan yang bertanggung jawab, meminta perusahaan untuk berkolaborasi dalam Verifikasi AI, "perangkat pengujian AI pertama di dunia". Verifikasi AI, yang mencakup kerangka kerja pengujian tata kelola AI dan perangkat perangkat lunak yang memungkinkan pengguna menguji model AI secara teknis dan mendokumentasikan pemeriksaan proses, diluncurkan sebagai proyek percontohan pada tahun 2022, dengan raksasa teknologi IBM dan Singapore Airlines telah berpartisipasi.
Pemerintah dan dunia usaha menjalin kerjasama
Kekhawatiran tentang risiko AI generatif telah meningkat dalam beberapa bulan terakhir karena chatbot ChatGPT telah menjadi hal yang populer. "Pada tahap ini, jelas bahwa kami ingin belajar dari industri. Kami perlu memahami bagaimana AI digunakan sebelum kami memutuskan apakah kami perlu berbuat lebih banyak dari sisi regulasi," kata Li Wanshi, yang diperkenalkan pada tahap selanjutnya.
"Kami menyadari bahwa sebagai negara kecil, sebagai pemerintah, kami mungkin tidak dapat menyelesaikan semua masalah. Jadi, sangat penting bagi kami untuk bekerja sama dengan industri, lembaga penelitian, dan pemerintah lainnya," kata Li.
Dilaporkan bahwa Google, Microsoft, dan IBM telah bergabung dengan AI Verify Foundation, komunitas sumber terbuka global yang dirancang untuk membahas standar dan praktik terbaik AI serta berkolaborasi dalam tata kelola AI. “Microsoft memuji pemerintah Singapura atas kepemimpinannya di bidang ini," kata Presiden Microsoft Brad Smith dalam rilisnya. "Dengan menciptakan sumber daya praktis seperti kerangka kerja dan perangkat pengujian tata kelola AI, Singapura membantu organisasi membangun proses tata kelola dan pengujian yang kuat."
"Industri ini jauh lebih aktif dalam hal AI. Kadang-kadang, dalam hal peraturan, Anda dapat melihat kesenjangan antara apa yang dipikirkan pembuat kebijakan tentang AI dan apa yang sebenarnya dilakukan oleh bisnis," kata Konsultan Komite Penasihat AI Nasional AS Haniyeh Mahmoudian kepada CNBC, "Jadi dengan jenis kolaborasi ini, khususnya pembuatan jenis perangkat ini, dengan masukan dari industri. Ini bermanfaat bagi kedua belah pihak."
Pada KTT Asia Tech x Singapore pada bulan Juni, Menteri Komunikasi dan Informasi Singapura Josephine Teo mengatakan bahwa meskipun pemerintah mengakui potensi risiko AI, pemerintah tidak dapat mempromosikan penggunaan etis AI sendiri, "dengan pengetahuan profesional dari sektor swasta dapat terlibat secara berarti dengan kami dalam mencapai tujuan ini."
Sementara "ada ketakutan dan kekhawatiran yang sangat nyata tentang pengembangan AI," katanya, AI perlu diarahkan secara aktif ke penggunaan yang bermanfaat dan jauh dari yang buruk. "Ini adalah inti dari bagaimana Singapura memandang AI."
Sementara itu, beberapa negara telah mengambil langkah untuk mengatur AI. Pada 14 Juni, Parlemen Eropa mengesahkan "Undang-Undang Kecerdasan Buatan" (AI Act), memberlakukan pembatasan yang lebih besar pada alat kecerdasan buatan generatif seperti ChatGPT, dan pengembang akan diminta untuk mengirimkan sistem untuk ditinjau sebelum dirilis. Presiden Prancis Emmanuel Macron juga mengatakan pekan lalu bahwa regulasi AI diperlukan. Inggris Raya sedang menyiapkan Satuan Tugas Model Yayasan AI untuk mempelajari risiko keamanan yang dibawa oleh kecerdasan buatan, dan sedang mempersiapkan KTT Keamanan AI Global, dengan maksud untuk menjadikannya pusat geografis regulasi keamanan AI global.
Bapak ChatGPT berbicara di Singapura
Stella Cramer, kepala Asia-Pasifik di grup teknologi firma hukum internasional Clifford Chance, mengatakan Singapura dapat bertindak sebagai "pelayan" di wilayah tersebut, yang memungkinkan inovasi terjadi di lingkungan yang aman. Clifford Chance bekerja sama dengan regulator untuk mengembangkan serangkaian pedoman dan kerangka kerja pasar.
"Apa yang kami lihat adalah pendekatan yang konsisten seputar keterbukaan dan kolaborasi. Singapura dipandang sebagai yurisdiksi yang aman untuk menguji dan meluncurkan teknologi Anda dalam lingkungan yang terkendali dengan dukungan regulator," kata Cramer.
Ide ini sepertinya sejalan dengan ide CEO OpenAI Sam Altman (Sam Altman). Pada tanggal 13 Juni, Altman menghadiri acara tur global "Fireside Dialogue" OpenAI di Singapore Management University (Singapore Management University), di mana dia menjelaskan tentang cara mengelola risiko AI. Dia yakin fokusnya adalah memberi tahu publik tentang dan mengalami perkembangan baru, yang akan memastikan bahwa setiap potensi bahaya terdeteksi dan ditangani sebelum dampaknya menyebar luas.
"Ini lebih efisien daripada mengembangkan dan menguji teknologi di balik pintu tertutup dan merilisnya ke publik dengan asumsi semua kemungkinan risiko telah diidentifikasi dan dicegah," kata Altman. Pelajari semuanya. Tidak peduli seberapa banyak produk diuji untuk meminimalkan bahaya, seseorang akan melakukannya temukan cara untuk mengeksploitasinya dengan cara yang tidak pernah terpikirkan oleh pembuatnya.” Hal ini berlaku untuk teknologi baru apa pun, catatnya.
“Kami percaya bahwa penyebaran iteratif adalah satu-satunya cara untuk melakukan ini.” Altman menambahkan bahwa pengenalan versi baru secara bertahap juga akan memungkinkan masyarakat untuk beradaptasi dengan perkembangan AI, sambil menghasilkan umpan balik tentang bagaimana hal itu dapat ditingkatkan.
Singapura saat ini telah meluncurkan beberapa proyek percontohan, seperti FinTech Regulatory Sandbox atau HealthTech Sandbox, bagi para pelaku industri untuk menguji produk mereka di lingkungan langsung sebelum go public. "Kerangka kerja terstruktur dan alat pengujian ini akan membantu memandu kebijakan tata kelola AI untuk memungkinkan perusahaan mengembangkan AI dengan aman dan terjamin," kata Cramer.