大模型“取長補(bǔ)短”新思路入選NeurIPS'24,顯著優(yōu)于現(xiàn)有路由方法,南科大港科大出品
AIGC動態(tài)歡迎閱讀
原標(biāo)題:大模型“取長補(bǔ)短”新思路入選NeurIPS'24,顯著優(yōu)于現(xiàn)有路由方法,南科大港科大出品
關(guān)鍵字:樣本,準(zhǔn)確率,對比,損失,高效
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
RouterDC團(tuán)隊(duì) 投稿量子位 | 公眾號 QbitAI高效組合多個(gè)大模型“取長補(bǔ)短”新思路,被頂會NeurIPS 2024接收。
名為RouterDC,是一種基于雙重對比學(xué)習(xí)的路由架構(gòu),具有參數(shù)高效性(小于100M的參數(shù))和計(jì)算高效性(不需要對于LLM進(jìn)行梯度回傳)的優(yōu)勢。
在具有挑戰(zhàn)性語言理解、代碼生成和數(shù)學(xué)推理等推理任務(wù)實(shí)驗(yàn)中,RouterDC在分布內(nèi)(+2.76%)和分布外(+1.90%)設(shè)定下,都遠(yuǎn)超于現(xiàn)有的routing方法。
眾所周知,LLM通常在不同數(shù)據(jù)集上預(yù)訓(xùn)練和微調(diào),導(dǎo)致它們在不同任務(wù)上的性能強(qiáng)弱不同。
LLM路由則是一種組合多個(gè)LLM的新思路,它通過學(xué)習(xí)一個(gè)路由器(Router)來為每一個(gè)請求(query)選擇最合適的LLM。在推理時(shí),LLM路由只需要調(diào)用所選的LLM進(jìn)行推理,使其在保持計(jì)算高效性的同時(shí)利用多個(gè)LLM的互補(bǔ)能力。
RouterDC這種新方法,包括一個(gè)較小的語言模型作為編碼器和一系列與候選LLM對應(yīng)的可學(xué)習(xí)的LLM embeddings。
對于訓(xùn)練數(shù)據(jù)中的每個(gè)query,首先將候選LLM的預(yù)測與真實(shí)標(biāo)簽進(jìn)行比較獲得表現(xiàn)最好和最差的LLM,然后構(gòu)造兩
原文鏈接:大模型“取長補(bǔ)短”新思路入選NeurIPS'24,顯著優(yōu)于現(xiàn)有路由方法,南科大港科大出品
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡介: