中科大發(fā)布Agent-FLAN,微調(diào)提升Agent能力
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:中科大發(fā)布Agent-FLAN,微調(diào)提升Agent能力
關(guān)鍵字:能力,模型,數(shù)據(jù),幻覺(jué),任務(wù)
文章來(lái)源:夕小瑤科技說(shuō)
內(nèi)容字?jǐn)?shù):11015字
內(nèi)容摘要:
夕小瑤科技說(shuō) 原創(chuàng)作者 | 松果
引言:探索大型語(yǔ)言模型作為智能代理的挑戰(zhàn)與機(jī)遇隨著大語(yǔ)言模型(LLMs)在各種自然語(yǔ)言處理任務(wù)中取得巨大成功,將這些模型作為智能代理(agents)使用時(shí),它們與基于API的模型相比仍有不小的差距。如何將代理能力有效地整合到通用的LLMs中,成為了一個(gè)緊迫且關(guān)鍵的問(wèn)題。
本文首先提出了三個(gè)關(guān)鍵觀察:(1)當(dāng)前的代理訓(xùn)練語(yǔ)料庫(kù)與格式遵循和代理推理能力緊密糾纏,這顯著偏離了其預(yù)訓(xùn)練數(shù)據(jù)的分布;(2)LLMs在代理任務(wù)所需能力上展現(xiàn)出不同的學(xué)習(xí)速度;(3)現(xiàn)有方法在提高代理能力時(shí)引入了幻覺(jué)問(wèn)題。
基于這些發(fā)現(xiàn),研究者們提出了Agent-FLAN方法,通過(guò)仔細(xì)地分解和重新設(shè)計(jì)訓(xùn)練語(yǔ)料庫(kù),使Llama2-7B模型在各種代理評(píng)估數(shù)據(jù)集上的表現(xiàn)超越了之前的最佳工作3.5%。Agent-FLAN在減輕幻覺(jué)問(wèn)題方面也取得了顯著進(jìn)展,并且在模型規(guī)模擴(kuò)大時(shí),一致性地提高了LLMs的代理能力,同時(shí)略微增強(qiáng)了LLMs的通用能力。
論文標(biāo)題:Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for L
原文鏈接:中科大發(fā)布Agent-FLAN,微調(diào)提升Agent能力
聯(lián)系作者
文章來(lái)源:夕小瑤科技說(shuō)
作者微信:xixiaoyaoQAQ
作者簡(jiǎn)介:專(zhuān)業(yè)、有趣、深度價(jià)值導(dǎo)向的科技媒體。聚集30萬(wàn)AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來(lái)自清北、國(guó)內(nèi)外頂級(jí)AI實(shí)驗(yàn)室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺(jué)和洞察深度。商務(wù)合作:zym5189