AIGC動態歡迎閱讀
原標題:國產開源MoE指標炸裂:GPT-4級別能力,API價格僅百分之一
關鍵字:報告,模型,顯存,表示,代碼
文章來源:量子位
內容字數:3159字
內容摘要:
明敏 發自 凹非寺量子位 | 公眾號 QbitAI最新國產開源MoE大模型,剛剛亮相就火了。
DeepSeek-V2性能達GPT-4級別,但開源、可免費商用、API價格僅為GPT-4-Turbo的百分之一。
因此一經發布,立馬引發不小討論。
從公布的性能指標來看,DeepSeek-V2的中文綜合能力超越一眾開源模型,并和GPT-4-Turbo、文心4.0等閉源模型同處第一梯隊。
英文綜合能力也和LLaMA3-70B同處第一梯隊,并且超過了同是MoE的Mixtral 8x22B。
在知識、數學、推理、編程等方面也表現出不錯性能。并支持128K上下文。
這些能力,普通用戶都能直接免費使用。現在內測已開啟,注冊后立馬就能體驗。
API更是是骨折價:每百萬tokens輸入1元、輸出2元(32K上下文)。價格僅為GPT-4-Turbo的近百分之一。
同時在模型架構也進行創新,采用了自研的MLA(Multi-head Latent Attention)和Sparse結構,可大幅減少模型計算量、推理顯存。
網友感嘆:DeepSeek總是給人帶來驚喜!
具體效果如何,我們已搶先體驗!
實測一下目前V2
原文鏈接:國產開源MoE指標炸裂:GPT-4級別能力,API價格僅百分之一
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...