AIGC動態歡迎閱讀
原標題:Mistral新旗艦決戰Llama 3.1!最強開源Large 2 123B,扛鼎多語言編程全能王
關鍵字:模型,基準,能力,準確率,參數
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:
【新智元導讀】緊跟著Meta的重磅發布,Mistral Large 2也帶著權重一起上新了,而且參數量僅為Llama 3.1 405B的三分之一。不僅在編碼、數學和多語言等專業領域可與SOTA模型直接競爭,還支持單節點部署。昨天正式發布的Llama 3.1模型,讓AI社區著實為之興奮。
但是仔細一想就能發現——405B的參數規模,基本是沒法讓個人開發者在本地運行了。
比如昨天剛發布,就有一位勇敢的網友親測,用一張英偉達4090運行Llama 3.1。
結果可想而知,等了30分鐘模型才開始回應,緩緩吐出一個「The」。
最后結果是,Llama給出完整回應,整整用了20個小時。
根據Artificial Analysis的估算,你需要部署含2張8×H100的DGX超算才能在本地運行405B。
看來,小扎對Llama 3.1成為開源AI界Linux的期待,可能和現實有不少的差距。目前的硬件能力,很難支持405B模型的大范圍全量運行。
此時,又一位開源巨頭Mistral精準踩點,發布了他們的最新旗艦模型Mistral Large 2。
Mistral Large 2在代
原文鏈接:Mistral新旗艦決戰Llama 3.1!最強開源Large 2 123B,扛鼎多語言編程全能王
聯系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...