AIGC動態歡迎閱讀
原標題:200億「書生·浦語2.0」正式開源!數推性能比肩ChatGPT,200K超長上下文完美召回
關鍵字:模型,能力,語料,語言,數據
文章來源:新智元
內容字數:8386字
內容摘要:
新智元報道編輯:桃子 好困
【新智元導讀】新一代國產開源大語言模型來了!200K超長上下文「完美」支持,20B版本綜合性能全面領先。就在今天,上海人工智能實驗室與商湯科技聯合香港中文大學和復旦大學,正式發布新一代大語言模型書?·浦語2.0(InternLM2)。
Github:https://github.com/InternLM/InternLM
HuggingFace:https://huggingface.co/internlm
ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory
新一代InternLM2經過2.6萬億token高質量語料訓練,包含7B及20B兩種參數規格,以及基座、對話等版本。
它可以支持200K超長上下文,約30萬字文本,在「大海撈針實驗」中實現了完美的召回率。
相較于初代InternLM,新一代大模型輕量級(7B)及中量級(20B)性能在同量級模型中表現優異。尤其在數學推理方面,20B參數模型在GSM8K和MATH評測中性能超越ChatGPT(GPT-3.5)。
研究團隊
原文鏈接:200億「書生·浦語2.0」正式開源!數推性能比肩ChatGPT,200K超長上下文完美召回
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...