AIGC動態歡迎閱讀
原標題:開源模型進展盤點:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
關鍵字:論文,模型,鏈接,數據,報告
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
編輯:Panda深度學習領域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 對 AI 大模型有著深刻的洞察,也會經常把一些觀察的結果寫成博客。在一篇 5 月中發布的博客中,他盤點分析了 4 月份發布的四個主要新模型:Mixtral、Meta AI 的 Llama 3、微軟的 Phi-3 和蘋果的 OpenELM。他還通過一篇論文探討了 DPO 和 PPO 的優劣之處。之后,他分享了 4 月份值得關注的一些研究成果。Mixtral、Llama 3 和 Phi-3:有什么新東西?
首先,從最重要的話題開始:4 月發布的主要新模型。這一節將簡要介紹 Mixtral、Llama 3 和 Phi-3。下一節將會更詳細地介紹蘋果的 OpenELM。
Mixtral 8x22B:模型越大越好!
Mixtral 8x22B 是 Mistral AI 推出的最新款混合專家(MoE)模型,其發布時采用了寬松的 Apache 2.0 開源許可證。
這個模型類似于 2024 年發布的 Mixtral 8x7B,其背后的關鍵思路是將 Transfor
原文鏈接:開源模型進展盤點:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...