最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發(fā)

AIGC動態(tài)歡迎閱讀
原標(biāo)題:最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發(fā)
關(guān)鍵字:模型,基準(zhǔn),數(shù)據(jù),團(tuán)隊,人工智能
文章來源:新智元
內(nèi)容字?jǐn)?shù):3691字
內(nèi)容摘要:
新智元報道編輯:桃子
【新智元導(dǎo)讀】Mixtral 8x7B模型開源后,AI社區(qū)再次迎來一微調(diào)實踐。來自Nous Research應(yīng)用研究小組團(tuán)隊微調(diào)出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基準(zhǔn)測試中擊敗了Mixtral Instruct。Mixtral 8x7B開源模型的誕生,正如Llama一樣,為開源社區(qū)了帶來曙光。
前段時間,Mixtral剛剛發(fā)布了8x7B模型的論文。在基準(zhǔn)測試結(jié)果中,其性能達(dá)到或超過 Llama 2-70B和GPT-3.5。
甚至,Mixtral在數(shù)學(xué)、代碼生成和多語言理解任務(wù)方面表現(xiàn)亮眼。
最近,一個開源研究小組Nous Research推出了新一代旗艦大模型Nous-Hermes 2 Mixtral 8x7B。
這是首個通過RLHF訓(xùn)練的模型,并在主流基準(zhǔn)測試中超越Mixtral Instruct,成為最佳開源模型。
此外,Nous Research團(tuán)隊發(fā)布的SFT和SFT+DPO模型,以及DPO適配器將為用戶提供更多選擇。
在所有的基準(zhǔn)測試中,Nous-Hermes 2 Mixtral 8x7B模型也略不遜色。
目
原文鏈接:最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發(fā)
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。

粵公網(wǎng)安備 44011502001135號