開源模型超過最強(qiáng)閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:開源模型超過最強(qiáng)閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年
關(guān)鍵字:模型,數(shù)據(jù),性能,開發(fā)者,能力
文章來源:甲子光年
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
扎克伯格誓要把開源進(jìn)行到底。作者|蘇霍伊
編輯|趙健Llama 3.1終于來了。
美國(guó)當(dāng)?shù)貢r(shí)間7月23日,Meta正式發(fā)布Llama 3.1。其包含8B、70B 和405B三個(gè)規(guī)模,最大上下文提升到了128k。Llama目前開源領(lǐng)域中用戶最多、性能最強(qiáng)的大型模型系列之一。
本次Llama 3.1的要點(diǎn)有:
1.共有8B、70B及405B三種版本,其中405B版本是目前最大的開源模型之一;2.該模型擁有4050億參數(shù),在性能上超越了現(xiàn)有的頂級(jí)AI模型;3.模型引入了更長(zhǎng)的上下文窗口(最長(zhǎng)可達(dá)128K tokens),能夠處理更復(fù)雜的任務(wù)和對(duì)話;4.支持多語言輸入和輸出,增強(qiáng)了模型的通用性和適用范圍;5.提高了推理能力,特別是在解決復(fù)雜數(shù)學(xué)問題和即時(shí)生成內(nèi)容方面表現(xiàn)突出。Meta在官方博客中寫道:“時(shí)至今日,開源大語言模型性能落后于閉源模型仍是常態(tài)。但現(xiàn)在,我們正在迎來一個(gè)開源引領(lǐng)的新時(shí)代。我們公開發(fā)布Meta Llama 3.1 405B是世界上最大、功能最強(qiáng)大的開源基礎(chǔ)模型。迄今為止,所有Llama版本的累計(jì)下載次數(shù)已超過3億,而這只是一個(gè)開始。”
開源與閉源的爭(zhēng)論一直是技術(shù)領(lǐng)域的熱點(diǎn)
原文鏈接:開源模型超過最強(qiáng)閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年
聯(lián)系作者
文章來源:甲子光年
作者微信:
作者簡(jiǎn)介:

粵公網(wǎng)安備 44011502001135號(hào)