Model bahasa besar akan secara otomatis menyimpulkan struktur tanpa panduan yang jelas—ini adalah masalah yang perlu diakui. Jika Anda setuju dengan asumsi ini, maka memilih untuk tidak menyediakan kerangka panduan yang tepat bukanlah tindakan yang netral. Pada kenyataannya, ini setara dengan secara aktif memperkenalkan faktor risiko etika yang dapat berubah-ubah. Bagaimana merancang langkah-langkah keamanan sistem, dan bagaimana membangun mekanisme pembatasan yang masuk akal untuk perilaku AI, semuanya berkaitan dengan kepercayaan jangka panjang terhadap penerapan teknologi.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 3
  • Posting ulang
  • Bagikan
Komentar
0/400
digital_archaeologistvip
· 3jam yang lalu
Tidak menyediakan kerangka itu sendiri adalah kerangka, logika ini luar biasa
Lihat AsliBalas0
TokenAlchemistvip
· 3jam yang lalu
nah ini hanya masalah framing yang dibungkus sebagai diskusi etika... llms akan menarik pola inferensi bagaimanapun juga, alpha sebenarnya adalah memahami *yang* mana vektor inferensi yang penting untuk kasus penggunaanmu, bukan berpura-pura bahwa mekanisme batasan juga netral lol
Lihat AsliBalas0
PhantomHuntervip
· 3jam yang lalu
Sejujurnya, logika "netral adalah keamanan" ini sebenarnya tidak dapat dibenarkan
Lihat AsliBalas0
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)