AIGC動態歡迎閱讀
原標題:降本提效!阿里提出大模型集成新方法
文章來源:夕小瑤科技說
內容字數:5735字
內容摘要:夕小瑤科技說 原創作者 | 智商掉了一地、Python隨著對大型語言模型(LLM)研究的不斷深入,越來越多的工作不再局限于模型本身的性能提升,而是更加關注如何在任務中實現更高效、可靠的性能。即使是通用型的離線 LLM,也在各種領域和任務中具有不同的專業知識,因此,將多個 LLM 集成在一起,能夠實現更為一致的性能提升。然而,盡管大多數 LLM 集成方法可以提高性能,但主要都是對模型輸出進行獎勵排名,這導致了大量計算開銷。來自阿里的研究團隊近期提出了一個集成 LLM 的降本增效新方法,具體來說,通過一種獎勵引導的路徑決策方法 ZOOTER,只需對在特定任務上表現最優越的模型進行推理,而非對所有模型都生成輸出,如圖 1 所示。為實現這一目標,引入了一個相對較小的路徑決策組件,用于確定哪個模型在處理特定任務時具有最專業的知識。這樣一來,整個集成的推理成本大幅降低,從而提高了計算效率。▲圖1 LL…
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI應用開發者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯網大廠,兼備媒體sense與技術深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...