開(kāi)源大模型王座再易主,通義千問(wèn)1100億參數(shù)拿下SOTA,3個(gè)月已推出8款模型
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:開(kāi)源大模型王座再易主,通義千問(wèn)1100億參數(shù)拿下SOTA,3個(gè)月已推出8款模型
關(guān)鍵字:模型,阿里,中文,能力,開(kāi)發(fā)者
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):6394字
內(nèi)容摘要:
魚(yú)羊 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI開(kāi)源大模型,已經(jīng)開(kāi)啟大卷特卷模式。
全球范圍,太平洋兩岸,雙雄格局正在呼之欲出。
Llama 3中杯大杯剛驚艷亮相,國(guó)內(nèi)通義千問(wèn)就直接開(kāi)源千億級(jí)參數(shù)模型Qwen1.5-110B,一把火上Hacker News榜首。
不僅相較于自家720億參數(shù)模型性能明顯提升,在MMLU、C-Eval、HumanEval等多個(gè)基準(zhǔn)測(cè)試中,Qwen1.5-110B都重返SOTA開(kāi)源模型寶座,超越Llama 3 70B,成最強(qiáng)開(kāi)源大模型。
中文能力方面,對(duì)比僅喂了5%非英文數(shù)據(jù)的Llama 3 70B,Qwen1.5-110B更是優(yōu)勢(shì)明顯。
于是乎,模型一上線,開(kāi)源社區(qū)已經(jīng)熱烈響應(yīng)起來(lái)。
這不,Qwen1.5-110B推出不到一天,幫助用戶在本地環(huán)境運(yùn)行創(chuàng)建大語(yǔ)言模型的Ollama平臺(tái),就已火速上線鏈接。
值得關(guān)注的是,這已經(jīng)是3個(gè)月內(nèi)通義千問(wèn)開(kāi)源的第8款大模型。
開(kāi)源大模型都在卷些什么?那么,問(wèn)題來(lái)了,因Llama 3和Qwen1.5接連開(kāi)源而持續(xù)的這波開(kāi)源大模型小熱潮中,開(kāi)源模型又在卷些什么?
如果說(shuō)上一階段由馬斯克Grok和Mixtral所引領(lǐng)的話題熱
原文鏈接:開(kāi)源大模型王座再易主,通義千問(wèn)1100億參數(shù)拿下SOTA,3個(gè)月已推出8款模型
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破