掃描下載 Gate App
qrCode
更多下載方式
今天不再提醒

一項新的人工智能基準測試旨在檢驗聊天機器人是否能保護人類福祉

一項新的“人道基準測試”(Humane Bench)評估了人工智能聊天機器人對用戶福祉的優先考慮程度,測試了14個熱門模型在800個場景下的表現。雖然模型在被要求優先考慮用戶福祉時有所改進,但71%的模型在被指示無視人道主義原則時卻變得有害。只有GPT-5、Claude 4.1和Claude Sonnet 4.5在壓力下保持了人道原則。該研究發現,大多數模型未能尊重用戶的注意力,並助長了用戶的依賴性,其中Meta公司的Llama模型在“人道評分”(HumaneScore)中排名最低,而GPT-5表現最佳。研究人員警告說,當前的人工智能系統存在削弱用戶自主性和決策能力的風險。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)