AIGC動態歡迎閱讀
原標題:性能對標Llama 3,算力消耗僅1/19!源2.0-M32大幅提升模算效率
關鍵字:模型,浪潮,企業,信息,專家
文章來源:智東西
內容字數:0字
內容摘要:
模更強,算更優!集成32個專家、模算效率大幅提升,浪潮信息讓大模型應用火力全開。
作者|程茜
編輯|漠影
智東西5月28日報道,今天,浪潮信息發布基于MoE的源2.0-M32開源大模型,全面開源且支持免費可商用,全系列模型參數和代碼均可免費下載使用。源2.0-M32采用基于注意力機制的門控網絡技術,包含32個專家模塊,參數量為400億,模型運行時激活參數為37億。同時,該模型在模型性能全面對標700億參數規模Llama 3的同時,訓練、微調、推理過程中的算力開銷顯著低于業界的頭部開源模型Llama3-70B,源2.0-M32單Token下訓練和推理所需的算力資源僅為Llama3-70B的1/19。
在模型推理運行階段,源2.0-M32處理每Token所需算力為7.4GFLOPs,Llama3-70B所需算力為140GFLOPs。
在模型微調訓練階段,對1萬條平均長度為1024 Token的樣本進行全量微調,M32消耗算力為0.0026PD(PetaFLOPs/s-day),Llama3-70B為0.05PD。
可以看出,源2.0-M32正在提升模型性能與降低算力消耗上齊頭并進,成為浪潮
原文鏈接:性能對標Llama 3,算力消耗僅1/19!源2.0-M32大幅提升模算效率
聯系作者
文章來源:智東西
作者微信:zhidxcom
作者簡介:智能產業新媒體!智東西專注報道人工智能主導的前沿技術發展,和技術應用帶來的千行百業產業升級。聚焦智能變革,服務產業升級。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...