🔥 Gate Alpha 限時賞金活動第三期上線!
在 Alpha 區交易熱門代幣,瓜分 $30,000 獎池!
💰 獎勵規則:
1️⃣ 連續2日每日交易滿 128 USDT,即可參與共享 $20,000 美金盲盒獎勵
2️⃣ 累計買入 ≥1,024 USDT,交易量前100名可直領獎勵 100美金盲盒
⏰ 活動時間:8月29日 16:00 — 8月31日 16:00 (UTC+8)
👉 立即參與交易: https://www.gate.com/announcements/article/46841
#GateAlpha # #GateAlphaPoints # #onchain#
GPT-4比你更會問問題:讓大模型自主複述,打破與人類對話的壁壘
原文來源:機器之心
在最新的人工智慧領域動態中,人工生成的提示()品質對大語言模型(LLM)的回應精度有著決定性影響。 OpenAI 提出的建議指出,精確、詳細且具體的問題對於這些大語言模型的表現至關重要。 然而,普通使用者是否能夠確保他們的問題對於 LLM 來說足夠清晰明瞭?
值得注意的是,人類在某些情境下的自然理解能力與機器的解讀存在明顯差異。 例如,「偶數月」 這一概念,在人類看來很明顯指的是二月,四月等月份,而 GPT-4 卻可能將其誤解為天數為偶數的月份。 這不僅揭示了人工智慧在理解日常語境上的局限性,也促使我們反思如何更有效地與這些大語言模型進行交流。 隨著人工智慧技術的不斷進步,如何橋接人類與機器在語言理解上的鴻溝,是一個未來研究的重要課題。
對此,加利福尼亞大學洛杉磯分校(UCLA)顧全全教授領導的通用人工智慧實驗室發佈了一份研究報告,針對大語言模型(如 GPT-4)在問題理解上的歧義問題提出了一種創新的解決方案。 這項研究由博士生鄧依荷,張蔚桐,陳子翔完成。
該方案的核心在於讓大語言模型對提出的問題進行複述與擴寫,以提高其回答的準確性。 研究發現,經 GPT-4 重新表述的問題變得更加詳細,問題格式也更為清晰了。 這種複述與擴寫的方法顯著提高了模型的回答準確率。 實驗表明,一個良好的複述之後的問題,使回答的準確率從原本的 50% 提高到了接近 100%。 這一性能提升不僅展示了大語言模型自我改進的潛力,也為人工智慧如何更有效地處理和理解人類語言提供了新的視角。
方法
基於以上的發現,研究者提出了一個簡單但效果顯著的提示詞 ():“Rephrase and expand the question, and respond”(簡稱為 RaR)。 這一提示詞直接提高了 LLM 回答問題的品質,展示了在問題處理上的一個重要提升。
結果
複述並擴寫(RaR)提供了一種隨插即用的黑箱式提示方法,能夠有效地提高 LLM 在各種任務上的性能。
在評估 LLM 在問答(QA)任務上的表現時,檢查問題的質量至關重要。
與思維鏈(CoT)的區別
為了理解RaR與思維鏈(CoT)之間的區別,研究人員提出了它們的數學表述,並闡明瞭RaR在數學上與CoT的不同之處,以及它們如何可以輕鬆結合。
結論
人類和大語言模型(LLM)之間交流可能存在誤解:看似對人類清晰的問題可能仍會被大語言模型理解成其他的問題。 UCLA 的研究團隊基於這個問題提出 RaR 這一新穎方法,促使 LLM 先複述並澄清問題,然後再回答。
RaR 在一系列基準數據集上進行的實驗評估證實了其方法的有效性。 進一步分析顯示,通過複述得到的問題品質提升是可以跨模型轉移的。
展望未來,RaR 這類的方法預計將持續完善,以及它們與 CoT 等其他方法的整合,將為人類與大語言模型之間更準確、更有效的互動鋪平道路,最終拓展 AI 解釋和推理能力的邊界。