AIGC動態歡迎閱讀
原標題:谷歌Gemma 2 2B發布火爆,小模型如何撐起大格局?
關鍵字:模型,解讀,系列,語言,解釋性
文章來源:大數據文摘
內容字數:0字
內容摘要:
大數據文摘授權轉載自AI科技評論
作者:陳鷺伊
編輯:岑峰
語言模型的“小時代”正式到來?
北京時間8月1日凌晨(當地時間7月31日下午),Google深夜放出大招,發布了其Gemma系列開源語言模型的更新,在AI領域引發了巨大的震動。Google Developer的官方博客宣布,與6月發布的27B和9B參數版本相比,新的2B參數模型在保持卓越性能的同時,實現了“更小、更安全、更透明”的三大突破。
小,但更好Gemma 2 2B版本,這一通過蒸餾學習技術精心打磨的成果,不僅優化了NVIDIA TensorRT-LLM庫,更在邊緣設備到云端的多種硬件上展現出了卓越的運行能力。
更重要的是,較小的參數量大大降低了研究和開發的門檻,使得Gemma 2 2B能夠在Google Colab的免費T4 GPU服務上流暢運行,為用戶帶來了靈活且成本效益高的解決方案。
大模型競技場LMsys上,Gemma 2 2B的發布也迅速引起了廣泛關注。LMsys第一時間轉發了Google Deepmind的推文,對超越了參數量10倍于Gemma 2 2B版本的“老前輩”GPT-3.5-Tubro表示祝賀。Go
原文鏈接:谷歌Gemma 2 2B發布火爆,小模型如何撐起大格局?
聯系作者
文章來源:大數據文摘
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...