性能超越GPT-3.5:Mistral 8x7B是目前最好的開源 LLM

AIGC動態(tài)歡迎閱讀
原標(biāo)題:性能超越GPT-3.5:Mistral 8x7B是目前最好的開源 LLM
文章來源:AI范兒
內(nèi)容字?jǐn)?shù):2149字
內(nèi)容摘要:點擊上方藍(lán)字關(guān)注我們“ 歐洲初創(chuàng)公司Mistral最新發(fā)布Mixtral 8x7B,采用獨(dú)特“專家混合”技術(shù),介紹展示了該模型性能超越GPT-3.5和Llama 2系列。同時,該公司完成了由A16z領(lǐng)投的4.15億美元A輪融資,估值達(dá)20億美元,引發(fā)市場對其潛力的廣泛關(guān)注。Mistral成為歐洲歷史上最成功的初創(chuàng)公司之一,專注于開發(fā)開源大型語言模型(LLMs)。該公司最新推出的產(chǎn)品,即Mixtral 8x7B,以其采用的“專家混合”技術(shù)命名。這一技術(shù)將不同的模型融合在一起,每個模型專門處理不同類別的任務(wù)。上周,Mistral沿襲其一貫風(fēng)格,通過種子鏈接發(fā)布了這一新模型,毫不解釋、未附博客文章或演示視頻,但至少在X和LinkedIn上的早期采用者和人工智能影響者群體中取得了成功。最新的博客文章詳細(xì)介紹了Mixtral 8x7B,并展示了一些基準(zhǔn)測試結(jié)果,證明其在性能上與OpenAI的閉源GP…
原文鏈接:點此閱讀原文:性能超越GPT-3.5:Mistral 8x7B是目前最好的開源 LLM
聯(lián)系作者
文章來源:AI范兒
作者微信:AI_Insights
作者簡介:智能未來,始于Prompt!
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...

粵公網(wǎng)安備 44011502001135號