開源大模型超越GPT-3.5!爆火MoE實測結(jié)果出爐,網(wǎng)友:OpenAI越來越?jīng)]護城河了
AIGC動態(tài)歡迎閱讀
原標(biāo)題:開源大模型超越GPT-3.5!爆火MoE實測結(jié)果出爐,網(wǎng)友:OpenAI越來越?jīng)]護城河了
關(guān)鍵字:模型,基準(zhǔn),官方,中文,版本
文章來源:量子位
內(nèi)容字?jǐn)?shù):5938字
內(nèi)容摘要:克雷西 魚羊 發(fā)自 凹非寺量子位 | 公眾號 QbitAI一條神秘磁力鏈接引爆整個AI圈,現(xiàn)在,正式測評結(jié)果終于來了:首個開源MoE大模型Mixtral 8x7B,已經(jīng)達到甚至超越了Llama 2 70B和GPT-3.5的水平。(對,就是傳聞中GPT-4的同款方案。)并且由于是稀疏模型,處理每個token僅用了12.9B參數(shù)就做到了這般成績,其推理速度和成本也與12.9B的密集模型相當(dāng)。消息一出,再次在社交媒體上掀起討論熱潮。OpenAI創(chuàng)始成員Andrej Karpathy第一時間趕到現(xiàn)場整理起了筆記,還高亮出了重點:這家“歐版OpenAI”透露出的最強模型,還只是“中杯”。p.s. Mixtral 8×7B甚至只是小杯……英偉達AI科學(xué)家Jim Fan則贊說:每個月都會有十幾個新的模型冒出來,但真正能經(jīng)得住檢驗的卻寥寥無幾,能引發(fā)大家伙熱烈關(guān)注的就更少了。并且這波啊,不僅是模型背后公司…
原文鏈接:點此閱讀原文:開源大模型超越GPT-3.5!爆火MoE實測結(jié)果出爐,網(wǎng)友:OpenAI越來越?jīng)]護城河了
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...