最新千億大模型免費商用:1026億參數(shù),無需授權(quán)!誠邀開發(fā)者共同訓練
AIGC動態(tài)歡迎閱讀
原標題:最新千億大模型免費商用:1026億參數(shù),無需授權(quán)!誠邀開發(fā)者共同訓練
關(guān)鍵字:模型,浪潮,數(shù)據(jù),信息,參數(shù)
文章來源:量子位
內(nèi)容字數(shù):10103字
內(nèi)容摘要:明敏 金磊 發(fā)自 凹非寺量子位 | 公眾號 QbitAI開源大模型這個圈子,真是卷到不行——國內(nèi)最新紀錄來了,直奔千億量級,達到1026億。千億參數(shù)、全面開源、無需授權(quán)可商用,GitHub均可全面下載使用,就問你激動不激動!這便是來自浪潮信息最新的開源大模型,源2.0;話不多說,直接來看下測試結(jié)果~在業(yè)界公開的數(shù)據(jù)集上,源2.0與GPT-4、Llama 2同臺競技的結(jié)果如下:△采用與源2.0相同的輸入調(diào)用ChatGPT測試的結(jié)果,測試時間是11月不難看出,在代碼、數(shù)學、事實問答等各項的成績,除了GPT-4(閉源)之外,源2.0均處于領(lǐng)先地位。而且浪潮信息此次還一口氣發(fā)布了三款型號的模型,均完全開源:“中杯”:源2.0-2B,參數(shù)量為21億;“大杯”:源2.0-51B,參數(shù)量為518億;“超大杯”:源2.0-102B,參數(shù)量為1026億。縱觀今年百模大戰(zhàn)的下半場,開源圈可謂是熱鬧非凡,每隔一…
原文鏈接:點此閱讀原文:最新千億大模型免費商用:1026億參數(shù),無需授權(quán)!誠邀開發(fā)者共同訓練
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...