面壁智能低調(diào)開源大模型“理科狀元”!LeetCode 周賽超越80%人類選手,推理性能超 Llama3-70B

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:面壁智能低調(diào)開源大模型“理科狀元”!LeetCode 周賽超越80%人類選手,推理性能超 Llama3-70B
關(guān)鍵字:模型,報(bào)告,小米,字節(jié)跳動(dòng),數(shù)據(jù)
文章來源:AI前線
內(nèi)容字?jǐn)?shù):6073字
內(nèi)容摘要:
整理 | 褚杏娟
在 4 月 18 日 Llama3 發(fā)布前兩天,面壁智能低調(diào)開源了大模型 Eurux-8x22B。據(jù)悉,該模型在代碼和數(shù)學(xué)等體現(xiàn)大模型核心素質(zhì)的復(fù)雜推理綜合性能方面超越 Llama3-70B,刷新開源大模型 SOTA,堪稱“理科狀元”。
除了開源時(shí)間早于 Llama3,Eurux-8x22B 的激活參數(shù)僅有 39B,推理速度更快,目前支持 64k 上下文,相比之下 Llama3-70B 的上下文大小為 8K。
此外,Eurux-8x22B 由 Mistral-8x22B 對齊而來,綜合性能不輸 Llama3-70B。
Eurux-8x22B 模型和對齊數(shù)據(jù),全家桶開源:
https://github.com/OpenBMB/Eurus
https://huggingface.co/openbmb/Eurux-8x22b-ncaLeetCode 周賽超越 80% 人類選手復(fù)雜推理能力是體現(xiàn)大模型性能差異的最核心能力之一,也是大模型真正落地應(yīng)用所需的關(guān)鍵能力所在。根據(jù)測評,Eurux-8x22B 在代碼和數(shù)學(xué)等復(fù)雜推理的綜合性能方面刷新開源大模型 SOTA。
具體而言,
原文鏈接:面壁智能低調(diào)開源大模型“理科狀元”!LeetCode 周賽超越80%人類選手,推理性能超 Llama3-70B
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。

粵公網(wǎng)安備 44011502001135號(hào)