阿里推出世界最強(qiáng)的數(shù)學(xué)模型Qwen2-Math,擊敗GPT4o、Claude3.5
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:阿里推出世界最強(qiáng)的數(shù)學(xué)模型Qwen2-Math,擊敗GPT4o、Claude3.5
關(guān)鍵字:政策,模型,數(shù)學(xué),團(tuán)隊(duì),數(shù)據(jù)
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 谷雨龍澤上周,阿里通義團(tuán)隊(duì)宣布,模型又迎來了一次升級(jí),他們推出了專用于解決數(shù)學(xué)問題的Qwen2-Math!
Qwen2-Math模型簡(jiǎn)介通義千問的數(shù)學(xué)模型包括Qwen2-Math 和 Qwen2-Math-Instruct-1.5B/7B/72B。這批模型是一系列基于 Qwen2 LLM 構(gòu)建的專用數(shù)學(xué)語言模型,其數(shù)學(xué)能力明顯強(qiáng)于開源模型甚至閉源模型(如 GPT-4o)的數(shù)學(xué)能力。
根據(jù)研發(fā)團(tuán)隊(duì)的評(píng)測(cè),其中量最大的數(shù)學(xué)模型Qwen2-Math-72B-Instruct登頂全服最強(qiáng),拳打GPT-4o、Claude-3.5-Sonnet,腳踢Gemini-1.5-Pro和Llama-3.1-405B。
基礎(chǔ)模型 Qwen2-MathQwen2-Math 的基礎(chǔ)模型使用Qwen2-1.5B/7B/72B 進(jìn)行初始化,然后在團(tuán)隊(duì)構(gòu)建的數(shù)學(xué)專用數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練。數(shù)據(jù)包含通義千問合成的大規(guī)模高質(zhì)量數(shù)學(xué)網(wǎng)絡(luò)內(nèi)容、數(shù)學(xué)書籍、代碼、試題和數(shù)學(xué)預(yù)訓(xùn)練數(shù)據(jù)。比如這就是其中一道用來訓(xùn)練的數(shù)學(xué)題:
好吧,筆者承認(rèn),我已經(jīng)不會(huì)做這道題了——當(dāng)然也不能在幾秒鐘內(nèi)回答。
值得注意的是,千問
原文鏈接:阿里推出世界最強(qiáng)的數(shù)學(xué)模型Qwen2-Math,擊敗GPT4o、Claude3.5
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:
作者簡(jiǎn)介: