阿里云重磅發(fā)布開(kāi)源模型Qwen2,性能超Llama3-70及國(guó)內(nèi)眾多閉源模型
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:阿里云重磅發(fā)布開(kāi)源模型Qwen2,性能超Llama3-70及國(guó)內(nèi)眾多閉源模型
關(guān)鍵字:模型,華為,系列,技術(shù),指令
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
整理 | 褚杏娟
6月7日,阿里云更新技術(shù)博客,并重磅發(fā)布開(kāi)源模型 Qwen2-72B,性能超過(guò)美國(guó)最強(qiáng)的開(kāi)源模型 Llama3-70B,也超過(guò)文心 4.0、豆包 pro、混元 pro 等眾多中國(guó)閉源大模型。所有人均可在魔搭社區(qū)和 Hugging Face 免費(fèi)下載通義千問(wèn)最新開(kāi)源模型。
官方表示,相比 2 月推出的通義千問(wèn) Qwen1.5,Qwen2 實(shí)現(xiàn)了整體性能的代際飛躍。在權(quán)威模型測(cè)評(píng)榜單 OpenCompass 中,此前開(kāi)源的 Qwen1.5-110B 已領(lǐng)先于文心 4.0 等一眾中國(guó)閉源模型。剛剛開(kāi)源的 Qwen2-72B,整體性能相比 Qwen1.5-110B 又取得了大幅提升。
在上海人工智能實(shí)驗(yàn)室推出的 OpenCompass 大模型測(cè)評(píng)榜單上,此前開(kāi)源的 Qwen1.5-110B 已領(lǐng)先于文心 4.0 等一眾中國(guó)閉源模型
通義千問(wèn) Qwen2 系列模型大幅提升了代碼、數(shù)學(xué)、推理、指令遵循、多語(yǔ)言理解等能力。在 MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench 等國(guó)際權(quán)威測(cè)評(píng)中,Qwen2-
原文鏈接:阿里云重磅發(fā)布開(kāi)源模型Qwen2,性能超Llama3-70及國(guó)內(nèi)眾多閉源模型
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。