開源模型超過最強閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年
AIGC動態(tài)歡迎閱讀
原標題:開源模型超過最強閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年
關(guān)鍵字:模型,數(shù)據(jù),性能,開發(fā)者,能力
文章來源:甲子光年
內(nèi)容字數(shù):0字
內(nèi)容摘要:
扎克伯格誓要把開源進行到底。作者|蘇霍伊
編輯|趙健Llama 3.1終于來了。
美國當?shù)貢r間7月23日,Meta正式發(fā)布Llama 3.1。其包含8B、70B 和405B三個規(guī)模,最大上下文提升到了128k。Llama目前開源領(lǐng)域中用戶最多、性能最強的大型模型系列之一。
本次Llama 3.1的要點有:
1.共有8B、70B及405B三種版本,其中405B版本是目前最大的開源模型之一;2.該模型擁有4050億參數(shù),在性能上超越了現(xiàn)有的頂級AI模型;3.模型引入了更長的上下文窗口(最長可達128K tokens),能夠處理更復(fù)雜的任務(wù)和對話;4.支持多語言輸入和輸出,增強了模型的通用性和適用范圍;5.提高了推理能力,特別是在解決復(fù)雜數(shù)學(xué)問題和即時生成內(nèi)容方面表現(xiàn)突出。Meta在官方博客中寫道:“時至今日,開源大語言模型性能落后于閉源模型仍是常態(tài)。但現(xiàn)在,我們正在迎來一個開源引領(lǐng)的新時代。我們公開發(fā)布Meta Llama 3.1 405B是世界上最大、功能最強大的開源基礎(chǔ)模型。迄今為止,所有Llama版本的累計下載次數(shù)已超過3億,而這只是一個開始。”
開源與閉源的爭論一直是技術(shù)領(lǐng)域的熱點
原文鏈接:開源模型超過最強閉源模型,Llama 3.1能否顛覆AI生態(tài)?|甲子光年
聯(lián)系作者
文章來源:甲子光年
作者微信:
作者簡介: