AIGC動態歡迎閱讀
原標題:最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發
關鍵字:模型,基準,數據,團隊,人工智能
文章來源:新智元
內容字數:3691字
內容摘要:
新智元報道編輯:桃子
【新智元導讀】Mixtral 8x7B模型開源后,AI社區再次迎來一微調實踐。來自Nous Research應用研究小組團隊微調出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基準測試中擊敗了Mixtral Instruct。Mixtral 8x7B開源模型的誕生,正如Llama一樣,為開源社區了帶來曙光。
前段時間,Mixtral剛剛發布了8x7B模型的論文。在基準測試結果中,其性能達到或超過 Llama 2-70B和GPT-3.5。
甚至,Mixtral在數學、代碼生成和多語言理解任務方面表現亮眼。
最近,一個開源研究小組Nous Research推出了新一代旗艦大模型Nous-Hermes 2 Mixtral 8x7B。
這是首個通過RLHF訓練的模型,并在主流基準測試中超越Mixtral Instruct,成為最佳開源模型。
此外,Nous Research團隊發布的SFT和SFT+DPO模型,以及DPO適配器將為用戶提供更多選擇。
在所有的基準測試中,Nous-Hermes 2 Mixtral 8x7B模型也略不遜色。
目
原文鏈接:最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。