AIGC動態歡迎閱讀
原標題:清華系2B模型殺出,性能吊打LLaMA-13B,170萬tokens僅需1塊錢!
關鍵字:模型,李白,解讀,報告,知乎
文章來源:AI前線
內容字數:10884字
內容摘要:
作者| 褚杏娟
2 月 1 日,面壁智能與清華大學自然語言處理實驗室共同開源了系列端側語言大模型 MiniCPM,主體語言模型 MiniCPM-2B 僅有 24 億(2.4B)的非詞嵌入參數量。
在綜合性榜單上與 Mistral-7B 相近,在中文、數學、代碼能力表現更優,整體性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
具體開源模型包括:
基于 MiniCPM-2B 的指令微調與人類偏好對齊的 MiniCPM-2B-SFT/DPO。
基于 MiniCPM-2B 的多模態模型 MiniCPM-V,能力超越基于 Phi-2 的同參數級別多模態模型 。
MiniCPM-2B-SFT/DPO 的 Int4 量化版 MiniCPM-2B-SFT/DPO-Int4。
基于 MLC-LLM、LLMFarm 開發的 MiniCPM 手機端程序,文本及多模態模型均可在手機端進行推理。開源地址(內含技術報告):
MiniCPM GitHub:https://github.com/OpenBMB/MiniCPMOmniLMM
GitHub:https://github.
原文鏈接:清華系2B模型殺出,性能吊打LLaMA-13B,170萬tokens僅需1塊錢!
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供AI領域技術資訊、一線業界實踐案例、搜羅整理業界技術分享干貨、AI論文解讀。每周一節技術分享公開課,助力你全面擁抱人工智能技術。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...