AIGC動態歡迎閱讀
原標題:剛剛,Mistral AI最新磁力鏈放出!8x22B MoE模型,281GB解禁
關鍵字:模型,磁力,上下文,人工智能,性能
文章來源:新智元
內容字數:1398字
內容摘要:
新智元報道編輯:編輯部
【新智元導讀】初創團隊Mistral AI再次放出一條磁力鏈,281GB文件解禁了最新的8x22B MoE模型。一條磁力鏈,Mistral AI又來悶聲不響搞事情。
281.24GB文件中,竟是全新8x22B MOE模型!
全新MoE模型共有56層,48個注意力頭,8名專家,2名活躍專家。
而且,上下文長度為65k。
網友紛紛表示,Mistral AI一如既往靠一條磁力鏈,掀起了AI社區熱潮。
對此,賈揚清也表示,自己已經迫不及待想看到它和其他SOTA模型的詳細對比了!
靠磁力鏈火遍整個AI社區去年12月,首個磁力鏈發布后,Mistral AI公開的8x7B的MoE模型收獲了不少好評。
基準測試中,8個70億參數的小模型性能超越了多達700億參數的Llama 2。
它可以很好地處理32k長度的上下文,支持英語、法語、意大利語、德語和西班牙語,且在代碼生成方面表現出強大的性能。
今年2月,最新旗艦版模型Mistral Large問世,性能直接對標GPT-4。
不過,這個版本的模型沒有開源。
Mistral Large具備卓越的邏輯推理能力,能夠處理包括文本理解、
原文鏈接:剛剛,Mistral AI最新磁力鏈放出!8x22B MoE模型,281GB解禁
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...