面壁智能低調(diào)開(kāi)源大模型“理科狀元”!LeetCode 周賽超越80%人類(lèi)選手,推理性能超 Llama3-70B
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:面壁智能低調(diào)開(kāi)源大模型“理科狀元”!LeetCode 周賽超越80%人類(lèi)選手,推理性能超 Llama3-70B
關(guān)鍵字:模型,報(bào)告,小米,字節(jié)跳動(dòng),數(shù)據(jù)
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):6073字
內(nèi)容摘要:
整理 | 褚杏娟
在 4 月 18 日 Llama3 發(fā)布前兩天,面壁智能低調(diào)開(kāi)源了大模型 Eurux-8x22B。據(jù)悉,該模型在代碼和數(shù)學(xué)等體現(xiàn)大模型核心素質(zhì)的復(fù)雜推理綜合性能方面超越 Llama3-70B,刷新開(kāi)源大模型 SOTA,堪稱“理科狀元”。
除了開(kāi)源時(shí)間早于 Llama3,Eurux-8x22B 的激活參數(shù)僅有 39B,推理速度更快,目前支持 64k 上下文,相比之下 Llama3-70B 的上下文大小為 8K。
此外,Eurux-8x22B 由 Mistral-8x22B 對(duì)齊而來(lái),綜合性能不輸 Llama3-70B。
Eurux-8x22B 模型和對(duì)齊數(shù)據(jù),全家桶開(kāi)源:
https://github.com/OpenBMB/Eurus
https://huggingface.co/openbmb/Eurux-8x22b-ncaLeetCode 周賽超越 80% 人類(lèi)選手復(fù)雜推理能力是體現(xiàn)大模型性能差異的最核心能力之一,也是大模型真正落地應(yīng)用所需的關(guān)鍵能力所在。根據(jù)測(cè)評(píng),Eurux-8x22B 在代碼和數(shù)學(xué)等復(fù)雜推理的綜合性能方面刷新開(kāi)源大模型 SOTA。
具體而言,
原文鏈接:面壁智能低調(diào)開(kāi)源大模型“理科狀元”!LeetCode 周賽超越80%人類(lèi)選手,推理性能超 Llama3-70B
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。