7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無需訓(xùn)練就能完成
AIGC動態(tài)歡迎閱讀
原標(biāo)題:7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無需訓(xùn)練就能完成
文章來源:量子位
內(nèi)容字?jǐn)?shù):4743字
內(nèi)容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI基于博弈論,MIT提出了一種新的大模型優(yōu)化策略。在其加持之下,7B參數(shù)的Llama在多個數(shù)據(jù)集上超越了540B的“谷歌版GPT”PaLM。而且整個過程無需對模型進(jìn)行額外訓(xùn)練,消耗的算力資源更低。這種基于博弈論制定的優(yōu)化策略被稱為均衡排名(Equilibrium Ranking)。研究團(tuán)隊將大模型語言解碼過程轉(zhuǎn)化為正則化不完全信息博弈。這個詞可以拆…
原文鏈接:點此閱讀原文:7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無需訓(xùn)練就能完成
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章

暫無評論...