清華系2B模型殺出,性能吊打LLaMA-13B,170萬tokens僅需1塊錢!
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:清華系2B模型殺出,性能吊打LLaMA-13B,170萬tokens僅需1塊錢!
關(guān)鍵字:模型,李白,解讀,報(bào)告,知乎
文章來源:AI前線
內(nèi)容字?jǐn)?shù):10884字
內(nèi)容摘要:
作者| 褚杏娟
2 月 1 日,面壁智能與清華大學(xué)自然語言處理實(shí)驗(yàn)室共同開源了系列端側(cè)語言大模型 MiniCPM,主體語言模型 MiniCPM-2B 僅有 24 億(2.4B)的非詞嵌入?yún)?shù)量。
在綜合性榜單上與 Mistral-7B 相近,在中文、數(shù)學(xué)、代碼能力表現(xiàn)更優(yōu),整體性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
具體開源模型包括:
基于 MiniCPM-2B 的指令微調(diào)與人類偏好對齊的 MiniCPM-2B-SFT/DPO。
基于 MiniCPM-2B 的多模態(tài)模型 MiniCPM-V,能力超越基于 Phi-2 的同參數(shù)級別多模態(tài)模型 。
MiniCPM-2B-SFT/DPO 的 Int4 量化版 MiniCPM-2B-SFT/DPO-Int4。
基于 MLC-LLM、LLMFarm 開發(fā)的 MiniCPM 手機(jī)端程序,文本及多模態(tài)模型均可在手機(jī)端進(jìn)行推理。開源地址(內(nèi)含技術(shù)報(bào)告):
MiniCPM GitHub:https://github.com/OpenBMB/MiniCPMOmniLMM
GitHub:https://github.
原文鏈接:清華系2B模型殺出,性能吊打LLaMA-13B,170萬tokens僅需1塊錢!
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊、一線業(yè)界實(shí)踐案例、搜羅整理業(yè)界技術(shù)分享干貨、AI論文解讀。每周一節(jié)技術(shù)分享公開課,助力你全面擁抱人工智能技術(shù)。