AIGC動態歡迎閱讀
原標題:面壁智能低調開源大模型“理科狀元”!LeetCode 周賽超越80%人類選手,推理性能超 Llama3-70B
關鍵字:模型,報告,小米,字節跳動,數據
文章來源:AI前線
內容字數:6073字
內容摘要:
整理 | 褚杏娟
在 4 月 18 日 Llama3 發布前兩天,面壁智能低調開源了大模型 Eurux-8x22B。據悉,該模型在代碼和數學等體現大模型核心素質的復雜推理綜合性能方面超越 Llama3-70B,刷新開源大模型 SOTA,堪稱“理科狀元”。
除了開源時間早于 Llama3,Eurux-8x22B 的激活參數僅有 39B,推理速度更快,目前支持 64k 上下文,相比之下 Llama3-70B 的上下文大小為 8K。
此外,Eurux-8x22B 由 Mistral-8x22B 對齊而來,綜合性能不輸 Llama3-70B。
Eurux-8x22B 模型和對齊數據,全家桶開源:
https://github.com/OpenBMB/Eurus
https://huggingface.co/openbmb/Eurux-8x22b-ncaLeetCode 周賽超越 80% 人類選手復雜推理能力是體現大模型性能差異的最核心能力之一,也是大模型真正落地應用所需的關鍵能力所在。根據測評,Eurux-8x22B 在代碼和數學等復雜推理的綜合性能方面刷新開源大模型 SOTA。
具體而言,
原文鏈接:面壁智能低調開源大模型“理科狀元”!LeetCode 周賽超越80%人類選手,推理性能超 Llama3-70B
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...