AIGC動態歡迎閱讀
原標題:開源大模型王座再易主,1320億參數DBRX上線,基礎、微調模型都有
關鍵字:模型,基準,參數,效率,質量
文章來源:機器之心
內容字數:10134字
內容摘要:
機器之心報道
編輯:澤南、陳萍「太狂野了」。這是迄今為止最強大的開源大語言模型,超越了 Llama 2、Mistral 和馬斯克剛剛開源的 Grok-1。本周三,大數據人工智能公司 Databricks 開源了通用大模型 DBRX,這是一款擁有 1320 億參數的混合專家模型(MoE)。
DBRX 的基礎(DBRX Base)和微調(DBRX Instruct)版本已經在 GitHub 和 Hugging Face 上發布,可用于研究和商業用途。人們可以自行在公共、自定義或其他專有數據上運行和調整它們,也可以通過 API 的形式使用。
基礎版:https://huggingface.co/databricks/dbrx-base
微調版:https://huggingface.co/databricks/dbrx-instruct
GitHub 鏈接:https://github.com/databricks/dbrx
DBRX 在語言理解、編程、數學和邏輯等方面輕松擊敗了目前業內領先的開源大模型,如 LLaMA2-70B、Mixtral 和 Grok-1。DBRX 在語言理解(MML
原文鏈接:開源大模型王座再易主,1320億參數DBRX上線,基礎、微調模型都有
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...