200億「書生·浦語2.0」正式開源!數(shù)推性能比肩ChatGPT,200K超長(zhǎng)上下文完美召回
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:200億「書生·浦語2.0」正式開源!數(shù)推性能比肩ChatGPT,200K超長(zhǎng)上下文完美召回
關(guān)鍵字:模型,能力,語料,語言,數(shù)據(jù)
文章來源:新智元
內(nèi)容字?jǐn)?shù):8386字
內(nèi)容摘要:
新智元報(bào)道編輯:桃子 好困
【新智元導(dǎo)讀】新一代國(guó)產(chǎn)開源大語言模型來了!200K超長(zhǎng)上下文「完美」支持,20B版本綜合性能全面領(lǐng)先。就在今天,上海人工智能實(shí)驗(yàn)室與商湯科技聯(lián)合香港中文大學(xué)和復(fù)旦大學(xué),正式發(fā)布新一代大語言模型書?·浦語2.0(InternLM2)。
Github:https://github.com/InternLM/InternLM
HuggingFace:https://huggingface.co/internlm
ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory
新一代InternLM2經(jīng)過2.6萬億token高質(zhì)量語料訓(xùn)練,包含7B及20B兩種參數(shù)規(guī)格,以及基座、對(duì)話等版本。
它可以支持200K超長(zhǎng)上下文,約30萬字文本,在「大海撈針實(shí)驗(yàn)」中實(shí)現(xiàn)了完美的召回率。
相較于初代InternLM,新一代大模型輕量級(jí)(7B)及中量級(jí)(20B)性能在同量級(jí)模型中表現(xiàn)優(yōu)異。尤其在數(shù)學(xué)推理方面,20B參數(shù)模型在GSM8K和MATH評(píng)測(cè)中性能超越ChatGPT(GPT-3.5)。
研究團(tuán)隊(duì)
原文鏈接:200億「書生·浦語2.0」正式開源!數(shù)推性能比肩ChatGPT,200K超長(zhǎng)上下文完美召回
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。
相關(guān)文章
