OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.



- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.
WHY0.07%
ROOT-0.98%
View Original
post-image
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 6
  • Repost
  • Share
Comment
0/400
GasWastingMaximalistvip
· 8h ago
Her gün halüsinasyon görmek mümkün mü?
View OriginalReply0
TideRecedervip
· 8h ago
Tahminlerimin hepsi doğru, hahah
View OriginalReply0
WinterWarmthCatvip
· 8h ago
Bir sonraki sefer AI'ye boşuna uydurmaması gerektiğini öğret.
View OriginalReply0
AirdropLickervip
· 8h ago
Ahaha, AI kendi kendini kurtarmaya başladı.
View OriginalReply0
ZKProofstervip
· 8h ago
*teknik olarak* şaşırtıcı değil. bu yüzden resmi doğrulama protokollerine ihtiyacımız var smh
View OriginalReply0
GasFeeWhisperervip
· 8h ago
Bu saçmalık huyumu da değiştiremiyorum.
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)