數(shù)量即力量!騰訊揭秘:Agent數(shù)量越多,大語言模型效果越好
AIGC動態(tài)歡迎閱讀
原標題:數(shù)量即力量!騰訊揭秘:Agent數(shù)量越多,大語言模型效果越好
關鍵字:騰訊,性能,任務,方法,模型
文章來源:機器之心
內(nèi)容字數(shù):4327字
內(nèi)容摘要:
機器之心專欄
機器之心編輯部來自騰訊的研究者們做了一個關于 agent 的scaling property(可拓展性)的工作。發(fā)現(xiàn):通過簡單的采樣投票,大語言模型(LLM)的性能,會隨著實例化agent數(shù)量的增加而增強。其第一次在廣泛的場景下驗證了該現(xiàn)象的普遍性,與其他復雜方法的正交性,以及研究了其背后的原因,并提出進一步促成scaling發(fā)揮威力的辦法。論文標題:More Agents Is All You Need
論文地址:https://arxiv.org/abs/2402.05120
代碼地址:https://github.com/MoreAgentsIsAllYouNeed/More-Agents-Is-All-You-Need
本文中,來自騰訊的研究者發(fā)現(xiàn):只需通過一種簡單的采樣投票法,大語言模型的性能就會隨著實例化 agent 的數(shù)量的增大而增強,呈現(xiàn)scaling property(可拓展性),無需復雜的多 LLM agents 協(xié)作框架以及prompt工程方法的加持。此外,該方法與現(xiàn)有的復雜方交,結(jié)合之后,可進一步增強 LLM,其增強程度與任務難度相關。該論文做
原文鏈接:數(shù)量即力量!騰訊揭秘:Agent數(shù)量越多,大語言模型效果越好
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務平臺