AIGC動態歡迎閱讀
原標題:一句話解鎖100k+上下文大模型真實力,27分漲到98,GPT-4、Claude2.1適用
文章來源:量子位
內容字數:3272字
內容摘要:夢晨 發自 凹非寺量子位 | 公眾號 QbitAI各家大模型紛紛卷起上下文窗口,Llama-1時標配還是2k,現在不超過100k的已經不好意思出門了。然鵝一項極限測試卻發現,大部分人用法都不對,沒發揮出AI應有的實力。AI真的能從幾十萬字中準確找到關鍵事實嗎?顏色越紅代表AI犯的錯越多。默認情況下,GPT-4-128k和最新發布的Claude2.1-200k成績都不太理想。但Claude團隊了解情況后,給出超簡單解決辦法,增加一句話,直接把成績從27%提升到98%。只不過這句話不是加在用戶提問上的,而是讓AI在回復的開頭先說:????????“Here is the most relevant sentence in the context:”????(這就是上下文中最相關的句子:)讓大模型大海撈針為了做這項測試,作者Greg Kamradt自掏腰包花費了至少150美元。好在測試Claud…
原文鏈接:點此閱讀原文:一句話解鎖100k+上下文大模型真實力,27分漲到98,GPT-4、Claude2.1適用
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...