OpenAI опублікував "Чому мовні моделі галюцінують", пояснюючи корінні причини галюцинацій ШІ та пропонуючи рішення для їх зменшення
- Мовні моделі галюцинують, тому що стандартні процедури навчання та оцінювання винагороджують здогадки, а не визнання невизначеності, при цьому більшість
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
6
Репост
Поділіться
Прокоментувати
0/400
GasWastingMaximalist
· 18год тому
Щодня ілюзії, чи можливо?
Переглянути оригіналвідповісти на0
TideReceder
· 18год тому
Я вгадав все правильно, ха-ха-ха
Переглянути оригіналвідповісти на0
WinterWarmthCat
· 18год тому
Наступного разу навчіть ШІ не вигадувати.
Переглянути оригіналвідповісти на0
AirdropLicker
· 18год тому
Ахаха, навіть штучний інтелект почав самопорятунок.
Переглянути оригіналвідповісти на0
ZKProofster
· 18год тому
*технічно* не дивно. ось чому нам потрібні формальні протоколи верифікації smh
OpenAI опублікував "Чому мовні моделі галюцінують", пояснюючи корінні причини галюцинацій ШІ та пропонуючи рішення для їх зменшення
- Мовні моделі галюцинують, тому що стандартні процедури навчання та оцінювання винагороджують здогадки, а не визнання невизначеності, при цьому більшість