這就翻車了?Reflection 70B遭質(zhì)疑基模為Llama 3,作者:重新訓(xùn)練
AIGC動態(tài)歡迎閱讀
原標(biāo)題:這就翻車了?Reflection 70B遭質(zhì)疑基模為Llama 3,作者:重新訓(xùn)練
關(guān)鍵字:模型,權(quán)重,基準(zhǔn),開發(fā)者,表示
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
機器之心報道
編輯:杜偉最近,開源大模型社區(qū)再次「熱鬧」了起來,主角是 AI 寫作初創(chuàng)公司 HyperWrite 開發(fā)的新模型 Reflection 70B。
它的底層模型建立在 Meta Llama 3.1 70B Instruct 上,并使用原始的 Llama chat 格式,確保了與現(xiàn)有工具和 pipeline 的兼容性。
這個模型橫掃了 MMLU、MATH、IFEval、GSM8K,在每項基準(zhǔn)測試上都超過了 GPT-4o,還擊敗了 405B 的 Llama 3.1。憑借如此驚艷的效果,Reflection70B被冠以開源大模型新王。該模型更是由兩位開發(fā)者(HyperWrite CEO Matt Shumer 和 Glaive AI 創(chuàng)始人 Sahil Chaudhary)花了 3 周完成,效率可謂驚人。
Reflection 70B 能不能經(jīng)受住社區(qū)的考驗?zāi)兀拷裉?AI 模型分析機構(gòu) Artificial Analysis 進行了評估測試,結(jié)果有點出乎意料。
該機構(gòu)表示,Reflection Llama 3.1 70B 的 MMLU 得分僅與 Llama 3 70B 相
原文鏈接:這就翻車了?Reflection 70B遭質(zhì)疑基模為Llama 3,作者:重新訓(xùn)練
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介: