AIGC動態歡迎閱讀
原標題:今日arXiv最熱NLP大模型論文:浙江大學:蒸一蒸,多Agent變成單一模型,效果更好
關鍵字:模型,任務,語言,教師,文本
文章來源:夕小瑤科技說
內容字數:8924字
內容摘要:
夕小瑤科技說 原創作者 | 謝年年“團結就是力量”,面對復雜多變的現實環境,multi-agent應運而生。相較于單打獨斗的single-agent,multi-agent集結了多個功能各異的LLM,共同攻克難關。然而,這種協同作戰的方式也帶來了沉重的推理負擔,限制了multi-agent在開放世界中的發展潛力。
特別是在多模態環境下,視覺、音頻、文本交織在一起,如何動態調整多模態語言模型(MLMs),以適應視覺世界的紛繁復雜,成為擺在我們面前的一大挑戰。
浙大團隊結合額外專家模塊,提出了一種多模態multi-agent訓練的層次知識蒸餾方法。multi-agent在一個自組織的層次系統中協作,實現精細的思維鏈和高效的部署。這里的agent通過教師模型進行分層次訓練,模擬動態并調整任務,也就是說僅使用一個多模態語言模型(MLM)就能實現有效合作。經過蒸餾后,STEVE-2可以在無需專家指導的情況下,通過單一模型發展出高效的體感Agent,完成精細的開放任務。
論文標題:Do We Really Need a Complex Agent System? Distill Embodied
原文鏈接:今日arXiv最熱NLP大模型論文:浙江大學:蒸一蒸,多Agent變成單一模型,效果更好
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業、有趣、深度價值導向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內外機構投資人,互聯網大廠中高管和AI公司創始人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼備敏銳的行業嗅覺和洞察深度。商務合作:zym5189