國(guó)產(chǎn)開源MoE指標(biāo)炸裂:GPT-4級(jí)別能力,API價(jià)格僅百分之一
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:國(guó)產(chǎn)開源MoE指標(biāo)炸裂:GPT-4級(jí)別能力,API價(jià)格僅百分之一
關(guān)鍵字:報(bào)告,模型,顯存,表示,代碼
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):3159字
內(nèi)容摘要:
明敏 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI最新國(guó)產(chǎn)開源MoE大模型,剛剛亮相就火了。
DeepSeek-V2性能達(dá)GPT-4級(jí)別,但開源、可免費(fèi)商用、API價(jià)格僅為GPT-4-Turbo的百分之一。
因此一經(jīng)發(fā)布,立馬引發(fā)不小討論。
從公布的性能指標(biāo)來(lái)看,DeepSeek-V2的中文綜合能力超越一眾開源模型,并和GPT-4-Turbo、文心4.0等閉源模型同處第一梯隊(duì)。
英文綜合能力也和LLaMA3-70B同處第一梯隊(duì),并且超過了同是MoE的Mixtral 8x22B。
在知識(shí)、數(shù)學(xué)、推理、編程等方面也表現(xiàn)出不錯(cuò)性能。并支持128K上下文。
這些能力,普通用戶都能直接免費(fèi)使用。現(xiàn)在內(nèi)測(cè)已開啟,注冊(cè)后立馬就能體驗(yàn)。
API更是是骨折價(jià):每百萬(wàn)tokens輸入1元、輸出2元(32K上下文)。價(jià)格僅為GPT-4-Turbo的近百分之一。
同時(shí)在模型架構(gòu)也進(jìn)行創(chuàng)新,采用了自研的MLA(Multi-head Latent Attention)和Sparse結(jié)構(gòu),可大幅減少模型計(jì)算量、推理顯存。
網(wǎng)友感嘆:DeepSeek總是給人帶來(lái)驚喜!
具體效果如何,我們已搶先體驗(yàn)!
實(shí)測(cè)一下目前V2
原文鏈接:國(guó)產(chǎn)開源MoE指標(biāo)炸裂:GPT-4級(jí)別能力,API價(jià)格僅百分之一
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破