AIGC動態歡迎閱讀
原標題:中科院計算所:什么情況下,大模型才需要檢索增強?
關鍵字:模型,答案,問題,邊界,方法
文章來源:夕小瑤科技說
內容字數:9745字
內容摘要:
夕小瑤科技說 原創作者 | 謝年年、PythonChatGPT等大型語言模型在自然語言處理領域表現出色。但有時候會表現得過于自信,對于無法回答的事實問題,也能編出一個像樣的答案來。
這類胡說亂說的答案對于醫療等安全關鍵的領域來說,是致命的。
為了彌補這一缺陷,研究者們提出了檢索增強技術,通過引入外部知識源來減少模型的錯誤信息。然而,頻繁的檢索不僅增加開銷,還可能引入不準確或誤導性的信息。
因此,檢索的時機就變得很重要了。如果僅在LLMs對問題感到不確定時進行檢索檢索,將大大提高效率。
但是新問題又來了,如何讓過度自信的LLMs誠實的表達出“我不知道”呢?
中科院計算所的研究團隊對此進行了深入研究,定量評估了大型語言模型對知識邊界的感知能力,并發現它們確實存在過度自信的問題。團隊進一步探討了模型對問題確定性與外部檢索信息依賴之間的關系,并提出了幾種創新方法來增強模型對知識邊界的感知,從而減少過度自信。
這些方法不僅有助于提升模型的性能,還能在減少檢索調用次數的同時,實現與傳統檢索增強相當甚至更好的效果。
論文標題:When Do LLMs Need Retrieval Augmentat
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI一線開發者、互聯網中高管和機構投資人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼備行業嗅覺與報道深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...