AIGC動態歡迎閱讀
原標題:120億Stable LM 2上線即開源!2萬億token訓練,碾壓Llama 2 70B
關鍵字:模型,報告,性能,數據,基準
文章來源:新智元
內容字數:5257字
內容摘要:
新智元報道編輯:編輯部
【新智元導讀】Stability AI推出Stable LM 2 12B模型,作為其新模型系列的進一步升級,該模型基于七種語言的2萬億Token進行訓練,擁有更多參數和更強性能,據稱在某些基準下能超越Llama 2 70B。繼16億輕量級Stable LM 2推出之后,12B參數的版本在今天亮相了。
見狀,不少網友紛紛喊話:干的漂亮!但,Stable Diffusion 3啥時候出???總得來說,Stable LM 2 12B參數更多,性能更強。
120億參數版本包含了基礎模型和指令微調模型,并在七種多語言,高達2萬億Token數據集上完成訓練。
在基準測試中,其性能趕超Llama 2 70B等開源模型。
官博介紹,最新版本的模型兼顧了性能、效率、內存需求和速度,同時繼續采用了Stable LM 2 1.6B模型的框架。
通過這次更新,研究人員還為開發者提供了一個透明而強大的工具,以推動AI語言技術的創新。
模型地址:https://huggingface.co/stabilityai/stablelm-2-12b
雖然目前只支持4K的上下文窗口,但你先別急。
原文鏈接:120億Stable LM 2上線即開源!2萬億token訓練,碾壓Llama 2 70B
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...