谷歌 Gemma 2 2B 發(fā)布火爆,小模型如何撐起大格局?
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:谷歌 Gemma 2 2B 發(fā)布火爆,小模型如何撐起大格局?
關(guān)鍵字:模型,解讀,系列,語(yǔ)言,解釋性
文章來源:AI科技評(píng)論
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
Gemma系列語(yǔ)言模型正在引領(lǐng)著一場(chǎng)“小”的技術(shù)。作者丨陳鷺伊
編輯丨岑峰
語(yǔ)言模型的“小時(shí)代”正式到來?
北京時(shí)間8月1日凌晨(當(dāng)?shù)貢r(shí)間7月31日下午),Google深夜放出大招,發(fā)布了其Gemma系列開源語(yǔ)言模型的更新,在AI領(lǐng)域引發(fā)了巨大的震動(dòng)。Google Developer的官方博客宣布,與6月發(fā)布的27B和9B參數(shù)版本相比,新的2B參數(shù)模型在保持卓越性能的同時(shí),實(shí)現(xiàn)了“更小、更安全、更透明”的三大突破。1小,但更好Gemma 2 2B版本,這一通過蒸餾學(xué)習(xí)技術(shù)精心打磨的成果,不僅優(yōu)化了NVIDIA TensorRT-LLM庫(kù),更在邊緣設(shè)備到云端的多種硬件上展現(xiàn)出了卓越的運(yùn)行能力。
更重要的是,較小的參數(shù)量大大降低了研究和開發(fā)的門檻,使得Gemma 2 2B能夠在Google Colab的免費(fèi)T4 GPU服務(wù)上流暢運(yùn)行,為用戶帶來了靈活且成本效益高的解決方案。
大模型競(jìng)技場(chǎng)LMsys上,Gemma 2 2B的發(fā)布也迅速引起了廣泛關(guān)注。LMsys第一時(shí)間轉(zhuǎn)發(fā)了Google Deepmind的推文,對(duì)超越了參數(shù)量10倍于Gemma 2 2B版本的“老前輩”GPT-3.5-Tu
原文鏈接:谷歌 Gemma 2 2B 發(fā)布火爆,小模型如何撐起大格局?
聯(lián)系作者
文章來源:AI科技評(píng)論
作者微信:
作者簡(jiǎn)介: