
AIGC動態歡迎閱讀
原標題:小模型卷起來了:Mistral聯合英偉達開源12B小模型,128k上下文
關鍵字:模型,分詞,上下文,指令,高效
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
機器之心編輯部小模型,正在成為 AI 巨頭的新戰場。今天凌晨,OpenAI 突然發布了 GPT-4o 的迷你版本 ——GPT-4o mini。這個模型替代了原來的 GPT-3.5,作為免費模型在 ChatGPT 上提供。其 API 價格也非常美麗,每百萬輸入 token 僅為 15 美分,每百萬輸出 token 60 美分, 比之前的 SOTA 模型便宜一個數量級,比 OpenAI 此前最便宜的 GPT-3.5 Turbo 還要便宜 60% 以上。
OpenAI CEO 山姆?奧特曼對此的形容是:通往智能的成本已經「too cheap to meter」。與動輒上千億參數的大模型相比,小模型的優勢是顯而易見的:它們不僅計算成本更低,訓練和部署也更為便捷,可以滿足計算資源受限、數據安全級別較高的各類場景。因此,在大筆投入大模型訓練之余,像 OpenAI、谷歌等科技巨頭也在積極訓練好用的小模型。
其實,比 OpenAI 官宣 GPT-4o mini 早幾個小時,被譽為「歐洲版 OpenAI」的 Mistral AI 也官宣了一個小模型 ——Mistral NeMo。這個小模型
原文鏈接:小模型卷起來了:Mistral聯合英偉達開源12B小模型,128k上下文
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號