100B 的「跨級」躍升!元象發(fā)布最大 MoE 開源大模型,「高性能全家桶」系列全部免費
AIGC動態(tài)歡迎閱讀
原標(biāo)題:100B 的「跨級」躍升!元象發(fā)布最大 MoE 開源大模型,「高性能全家桶」系列全部免費
關(guān)鍵字:騰訊,模型,專家,數(shù)據(jù),權(quán)重
文章來源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者 | 華衛(wèi)
9 月 13 日,元象 XVERSE 發(fā)布中國最大 MoE 開源模型:XVERSE-MoE-A36B。該模型總參數(shù) 255B,激活參數(shù) 36B,能 達(dá)到 100B 模型的性能「跨級」躍升,同時訓(xùn)練時間減少 30%,推理性能提升 100%,使每 token 成本大幅下降。
并且,元象「高性能全家桶」系列全部開源,無條件免費商用,海量中小企業(yè)、研究者和開發(fā)者能按需選擇。
MoE(Mixture of Experts)是業(yè)界前沿的混合專家模型架構(gòu) ,將多個細(xì)分領(lǐng)域的專家模型組合成一個超級模型,打破了傳統(tǒng)擴展定律(Scaling Law)的局限,可在擴大模型規(guī)模時,不顯著增加訓(xùn)練和推理的計算成本,并保持模型性能最大化。出于這個原因,行業(yè)前沿模型包括谷歌 Gemini-1.5、OpenAI 的 GPT-4 、馬斯克旗下 xAI 公司的 Grok 等大模型都使用了 MoE。
免費下載大模型
Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
魔搭:https://modelscope.cn/models/xvers
原文鏈接:100B 的「跨級」躍升!元象發(fā)布最大 MoE 開源大模型,「高性能全家桶」系列全部免費
聯(lián)系作者
文章來源:AI前線
作者微信:
作者簡介: