LLM推理性能受輸出格式影響,JSON最嚴重
AIGC動態(tài)歡迎閱讀
原標題:LLM推理性能受輸出格式影響,JSON最嚴重
關(guān)鍵字:格式,自然語言,模型,答案,問題
文章來源:量子位
內(nèi)容字數(shù):0字
內(nèi)容摘要:
一水 發(fā)自 凹非寺量子位 | 公眾號 QbitAI輸出格式不同,竟然還能影響大模型發(fā)揮?!
兩種提示下讓大語言模型(LLMs)解同一道數(shù)學(xué)題,問題如下:
Eliza每周工作的前40小時,每小時的工資是10美元,加班費每小時x1.2。如果Eliza這周工作了45小時,她這周的收入是多少?
思維鏈prompt:“按照以下格式提供輸出,逐步推理:…回答:最終答案是…”。
格式限制prompt:“按照以下有效的JSON格式提供輸出:…(具體JSON格式見圖)“。
正確答案是460,可以看出,思維鏈(讓模型一步步思考)奏效,格式限制(“以JSON格式輸出”)卻失敗了!!
這是大學(xué)和Appier AI Research新研究中的一幕,他們發(fā)現(xiàn)——
格式限制這玩意兒會降低LLMs的推理能力,且限制越嚴推理越差。(主打一個叛逆)
不過好消息是,能治。
他們發(fā)現(xiàn),最佳解決方案是搞個“二次轉(zhuǎn)換”(倒爺是吧),即LLMs首先用自然語言回答問題,然后再將答案轉(zhuǎn)換為目標格式。
在這個過程中,他們對比了GPT-3.5 Turbo、Claude 3 Haiku、Gemini 1.5 Flash等不同模型在生成不
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡介:
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...