最強開源大模型 Llama 3震撼發(fā)布!開源模型將追上GPT-4,4000億參數(shù)模型也在路上
AIGC動態(tài)歡迎閱讀
原標(biāo)題:最強開源大模型 Llama 3震撼發(fā)布!開源模型將追上GPT-4,4000億參數(shù)模型也在路上
關(guān)鍵字:模型,數(shù)據(jù),求生欲,性能,版本
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):3419字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Zicy就在昨晚,Meta官宣了開源的Llama 3 8B和70B版本。
8B模型在多項指標(biāo)中超越了Gemma 7B和Mistral 7B Instruct,而70B模型則超越了閉源的Claude 3 Sonnet,和Gemini Pro 1.5。
此外Meta還有一個still training的400B+參數(shù)版本,它和GPT-4以及Claude 3的超大杯版本Opus性能差不多,最重要的是,它即將開源!
怪獸級性能由于預(yù)訓(xùn)練和訓(xùn)練方法的改進,Llama 3 8B和70B是當(dāng)今同參數(shù)規(guī)模的SOTA模型。它大大降低了錯誤拒絕率,改善了一致性,并增加了模型響應(yīng)的多樣性。此外,在推理、代碼生成和指令跟蹤等功能的極大改進,使Llama 3更加易于操控。
在Llama 3的開發(fā)中,為了尋求對實際場景的優(yōu)化。Meta開發(fā)了一套新的高質(zhì)量人類評估集,包含1800個prompts,覆蓋12個關(guān)鍵用例,如尋求建議、頭腦風(fēng)暴、分類、封閉式問答、編碼、創(chuàng)意寫作等。為防止模型過度擬合,連模型開發(fā)團隊也無法訪問此評估集。下圖展示了與Claude Sonnet、Mistral Med
原文鏈接:最強開源大模型 Llama 3震撼發(fā)布!開源模型將追上GPT-4,4000億參數(shù)模型也在路上
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:AItists
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機構(gòu)