Meta發(fā)布抽象鏈,大模型工具利用精度+6%,速度+40%!
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Meta發(fā)布抽象鏈,大模型工具利用精度+6%,速度+40%!
關(guān)鍵字:解讀,方法,工具,模型,數(shù)學(xué)
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):10238字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)編輯 | 芒果引言:大語言模型與真實世界知識的對齊挑戰(zhàn)在人工智能領(lǐng)域,大型語言模型(LLMs)的發(fā)展已經(jīng)取得了顯著進(jìn)步,特別是在理解和執(zhí)行指令方面。然而,當(dāng)涉及到需要調(diào)用和組合真實世界知識來生成響應(yīng)時,這些模型仍然存在錯誤。例如,它們可能會做出不符合事實的陳述或錯誤的計算。為了解決這些問題,研究人員提出了使用輔助工具(如搜索引擎提供可靠事實,計算器進(jìn)行精確數(shù)算等)來減少這些錯誤,這激發(fā)了集成外部API調(diào)用到輸出生成中的工具增強型語言模型的發(fā)展。
盡管如此,當(dāng)前的工具增強型LLMs,例如Toolformer,仍然面臨在多步推理中可靠和高效利用工具的挑戰(zhàn)。特別是在多步推理任務(wù)中,工具調(diào)用往往是交錯的,即一個API調(diào)用的響應(yīng)常常是后續(xù)調(diào)用的一部分查詢。如果不顯式地建模這些推理鏈中的相互連接,LLMs將無法學(xué)習(xí)有效的工具使用規(guī)劃,導(dǎo)致使用工具的推理準(zhǔn)確性降低。同時,將文本生成與API調(diào)用交錯也引入了推理效率低下的問題,模型必須等待API調(diào)用的響應(yīng)才能繼續(xù)解碼過程。在多步推理場景中,這種低效率變得更加明顯,因為每個推理過程通常需要多輪API調(diào)用。
本文提出了一種新的方法,通
原文鏈接:Meta發(fā)布抽象鏈,大模型工具利用精度+6%,速度+40%!
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機(jī)構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報道深度。