AIGC動態歡迎閱讀
原標題:Qwen2.5更新百萬超長上下文,推理速度4.3倍加速,網友:RAG要過時了
關鍵字:上下文,模型,任務,文本,代碼
文章來源:量子位
內容字數:0字
內容摘要:
魚羊 發自 凹非寺量子位 | 公眾號 QbitAI國產大模型,最近有點卷。
這不,剛在寫代碼這事兒上刷新SOTA,Qwen2.5系列又雙叒突然更新了——
一口氣讀三本《三體》不費事,并且45秒左右就能完整總結出這69萬token的主要內容,be like:
還真不是糊弄事兒,“大海撈針”實驗顯示,這個全新的Qwen2.5-Turbo在100萬token上下文中有全綠的表現。
也就是說,這100萬上下文里,有細節Qwen2.5-Turbo是真能100%捕捉到。
沒錯,Qwen2.5系列新成員Qwen2.5-Turbo,這回主打的就是支持超長上下文,并且把性價比卷出了花兒:
上下文長度從128k擴展到1M,相當于100萬個英文單詞或150萬個漢字,也就是10部長篇小說、150小時語音記錄、30000行代碼的量。
更快的推理速度:基于稀疏注意力機制,處理百萬上下文時,首字返回時間從4.9分鐘降低到了68秒,實現了4.3倍加速。
關鍵是還便宜:0.3元/1M tokens。這意味著,在相同成本下,Qwen2.5-Turbo可以處理的token數量是GPT-4o-mini的3.6倍。
看到這波更
原文鏈接:Qwen2.5更新百萬超長上下文,推理速度4.3倍加速,網友:RAG要過時了
聯系作者
文章來源:量子位
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...