無需訓(xùn)練,性能提升100%!谷歌提出CoA「智能體鏈」,多LLM協(xié)作搞定長(zhǎng)文本
原標(biāo)題:無需訓(xùn)練,性能提升100%!谷歌提出CoA「智能體鏈」,多LLM協(xié)作搞定長(zhǎng)文本
文章來源:新智元
內(nèi)容字?jǐn)?shù):7801字
谷歌提出“智能體鏈”:解決LLM長(zhǎng)文本處理難題
近年來,大型語言模型(LLM)在諸多任務(wù)中表現(xiàn)出色,但處理長(zhǎng)文本依然是其短板。谷歌提出的“智能體鏈”(Chain-of-Agents,CoA)框架為解決這一難題提供了一種新思路。該框架無需訓(xùn)練,任務(wù)無關(guān)且高度可解釋,通過多個(gè)LLM間的協(xié)作來處理長(zhǎng)上下文任務(wù),性能顯著超越了傳統(tǒng)的檢索增強(qiáng)生成(RAG)和長(zhǎng)上下文LLM。
1. 核心思想:模擬人類閱讀處理長(zhǎng)文本的方式 CoA 的靈感源于人類處理長(zhǎng)文本的方式:分段閱讀和理解。它將長(zhǎng)文本分割成多個(gè)塊,由多個(gè)“工作智能體”依次處理,每個(gè)智能體處理一個(gè)文本塊,并將其理解結(jié)果傳遞給下一個(gè)智能體。最后,一個(gè)“管理智能體”整合所有智能體的信息,生成最終答案。
2. 高效的協(xié)作機(jī)制 每個(gè)“工作智能體”接收前一個(gè)智能體傳遞的信息、當(dāng)前文本塊和任務(wù)指令,處理后將更新的信息傳遞給下一個(gè)智能體。這種鏈?zhǔn)絺鬟f機(jī)制,使得信息在多個(gè)智能體間高效流動(dòng),并最終完成對(duì)長(zhǎng)文本的整體理解。
3. 顯著的性能提升 實(shí)驗(yàn)結(jié)果顯示,CoA 在問答、摘要和代碼補(bǔ)全等任務(wù)上均取得了顯著的性能提升,相較于基線模型提升高達(dá)10%,處理長(zhǎng)文本時(shí)提升甚至可達(dá)100%。它在多個(gè)數(shù)據(jù)集上,使用不同的基礎(chǔ)LLM時(shí),都顯著優(yōu)于Vanilla和RAG模型。
4. 計(jì)算效率的提升 CoA 的時(shí)間復(fù)雜度從全上下文方法的平方復(fù)雜度降到了線性復(fù)雜度,顯著提高了計(jì)算效率。這得益于其分塊處理和智能體協(xié)作機(jī)制,避免了將整個(gè)長(zhǎng)文本一次性輸入LLM。
5. 優(yōu)勢(shì)與不足 CoA 的優(yōu)勢(shì)在于其高效性、可解釋性和對(duì)不同LLM模型的兼容性。它無需針對(duì)特定任務(wù)進(jìn)行訓(xùn)練,并且其工作過程易于理解。然而,文章也討論了信息損失等問題,并進(jìn)行了相應(yīng)的消融實(shí)驗(yàn)。
6. 研究意義 CoA 提供了一種新穎且有效的方法來處理LLM的長(zhǎng)文本處理難題。它為未來LLM在處理復(fù)雜長(zhǎng)文本任務(wù)方面提供了新的方向,也為多智能體協(xié)作在人工智能領(lǐng)域的應(yīng)用提供了新的案例。
7. 未來展望 谷歌的研究表明,2025年將是智能體技術(shù)發(fā)力之年。 CoA框架的提出,無疑將推動(dòng)多智能體LLM在各個(gè)領(lǐng)域的應(yīng)用,例如長(zhǎng)文本摘要、復(fù)雜問答、代碼生成等。
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。