AIGC動態歡迎閱讀
原標題:數量即力量!騰訊揭秘:Agent數量越多,大語言模型效果越好
關鍵字:騰訊,性能,任務,方法,模型
文章來源:機器之心
內容字數:4327字
內容摘要:
機器之心專欄
機器之心編輯部來自騰訊的研究者們做了一個關于 agent 的scaling property(可拓展性)的工作。發現:通過簡單的采樣投票,大語言模型(LLM)的性能,會隨著實例化agent數量的增加而增強。其第一次在廣泛的場景下驗證了該現象的普遍性,與其他復雜方法的正交性,以及研究了其背后的原因,并提出進一步促成scaling發揮威力的辦法。論文標題:More Agents Is All You Need
論文地址:https://arxiv.org/abs/2402.05120
代碼地址:https://github.com/MoreAgentsIsAllYouNeed/More-Agents-Is-All-You-Need
本文中,來自騰訊的研究者發現:只需通過一種簡單的采樣投票法,大語言模型的性能就會隨著實例化 agent 的數量的增大而增強,呈現scaling property(可拓展性),無需復雜的多 LLM agents 協作框架以及prompt工程方法的加持。此外,該方法與現有的復雜方交,結合之后,可進一步增強 LLM,其增強程度與任務難度相關。該論文做
原文鏈接:數量即力量!騰訊揭秘:Agent數量越多,大語言模型效果越好
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...