Ring-1T-preview – 螞蟻百靈開源的萬億參數(shù)推理大模型
Ring-1T-preview:螞蟻集團萬億參數(shù)大模型揭開面紗
在人工智能飛速發(fā)展的浪潮中,螞蟻集團重磅發(fā)布了其開源的萬億參數(shù)大模型預覽版——Ring-1T-preview。這款模型基于先進的 Ling 2.0 MoE 架構(gòu),以驚人的 20 萬億字節(jié)語料為基石,并通過自主研發(fā)的高效強化學習系統(tǒng) ASystem 進行推理能力的深度打磨。其在自然語言推理領(lǐng)域的卓越表現(xiàn)尤為引人注目,在 AIME 2025 測試中斬獲 92.6 分的佳績,直逼業(yè)界標桿 GPT-5。更令人驚嘆的是,在 IMO 2025 測試中,Ring-1T-preview 能夠一次性完美解答第三道難題,并在其余題目中提供部分正確答案,充分展示了其非凡的高階推理潛能。
Ring-1T-preview 的核心亮點
- 卓越的自然語言推理實力:在 AIME 2025 考試中,Ring-1T-preview 取得了 92.6 分的優(yōu)異成績,這一分數(shù)已非常接近 GPT-5 的 94.6 分,彰顯了其在數(shù)學推理方面的深厚功底。
- 高效的問題解析能力:在 IMO 2025 競賽中,該模型成功攻克了第三題,并在其他題目上展現(xiàn)出部分正確的解題思路,預示著其在復雜問題解決方面的強大實力。
- 跨領(lǐng)域的廣泛適用性:Ring-1T-preview 在 HMMT 2025、LiveCodeBench v6、CodeForces 以及 ARC-AGI-1 等多項挑戰(zhàn)中均表現(xiàn)搶眼,證明了其在不同應用場景下的巨大潛力。
- 擁抱開源,共促發(fā)展:該模型不僅提供了完整的代碼和權(quán)重,更將其發(fā)布在 Hugging Face 平臺,以此鼓勵社區(qū)的積極探索與反饋,從而加速模型的持續(xù)優(yōu)化與進步。
Ring-1T-preview 的技術(shù)基石
- 創(chuàng)新架構(gòu)設計:Ling 2.0 MoE 架構(gòu)的引入,結(jié)合萬億級別的參數(shù)規(guī)模,為 Ring-1T-preview 注入了強大的信息處理能力和卓越的計算效率。
- 海量高質(zhì)預訓練數(shù)據(jù):模型在多達 20T 的海量優(yōu)質(zhì)語料上進行了預訓練,為其構(gòu)建了扎實的語言知識基礎(chǔ)和深厚的模式識別能力。
- 強化學習的深度賦能:通過自主研發(fā)的高效強化學習系統(tǒng) ASystem,Ring-1T-preview 接受了針對推理能力的 RLVR 訓練,顯著提升了其在推理與決策方面的表現(xiàn)。
- 持續(xù)精進的迭代之路:當前,Ring-1T-preview 仍處于不斷訓練和優(yōu)化的過程中,團隊正致力于解決其在語種混雜、推理重復等方面的不足,以期達到更完美的表現(xiàn)。
Ring-1T-preview 的開源入口
- Hugging Face 模型中心:https://huggingface.co/inclusionAI/Ring-1T-preview
Ring-1T-preview 的廣闊應用前景
- 自然語言推理的嶄新標桿:在 AIME 25 測試中取得的 92.6 分,使其在數(shù)學推理領(lǐng)域與 GPT-5 縮小了差距,展現(xiàn)出巨大的應用潛力。
- 代碼生成與優(yōu)化領(lǐng)域的佼佼者:在 CodeForces 測試中,Ring-1T-preview 以 94.69 分的成績超越 GPT-5,證明了其在代碼生成方面的卓越能力。
- 多智能體協(xié)同的有力支撐:與多智能體框架 AWorld 的集成,為測試和探索復雜的推理任務提供了全新的平臺。
- 推動學術(shù)研究與產(chǎn)業(yè)發(fā)展:作為全球首個開源的萬億參數(shù)推理大模型,Ring-1T-preview 為學術(shù)界和產(chǎn)業(yè)界的研究者及開發(fā)者提供了一個高性能、可復現(xiàn)的推理基座,有望加速大模型生態(tài)的透明化發(fā)展和協(xié)同創(chuàng)新。
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...