微軟官宣放出一個「小模型」,僅2.7B參數(shù),擊敗Llama2和Gemini Nano 2
AIGC動態(tài)歡迎閱讀
原標題:微軟官宣放出一個「小模型」,僅2.7B參數(shù),擊敗Llama2和Gemini Nano 2
關鍵字:微軟,模型,參數(shù),數(shù)據(jù),領域
文章來源:夕小瑤科技說
內(nèi)容字數(shù):4065字
內(nèi)容摘要:夕小瑤科技說 原創(chuàng)作者 | 小戲、王二狗就在前一陣谷歌深夜直接對標 GPT-4 放出 Gemini 之后,微軟這兩天也緊鑼密鼓進行了一系列動作。盡管時間日趨圣誕假期,但是兩家巨頭硬碰硬的軍備競賽絲毫沒有停止的意思。就在昨日,微軟官宣放出一個“小模型” Phi-2,這個 Phi-2 僅有 27 億的參數(shù)(注意不是 27 B),但卻在參數(shù)規(guī)模小于 13B 的模型中達到了最先進性能,利用微軟在模型擴展與訓練數(shù)據(jù)管理方面的創(chuàng)新,Phi-2 的性能可以直接匹敵參數(shù)量超過其 25 倍的模型!要說 Phi-2,其最大的亮點就在于“小模型”+“高性能”,27 億的參數(shù)量在現(xiàn)在成千上萬億參數(shù)的模型中顯得格外亮眼,“模型小”將直接支持 Phi-2 可以在筆記本電腦、手機等移動設備上運行。同時,劃重點,“小模型”也可以支持科研人員在不需要昂貴計算設備的情況下在各個相關領域進行科學研究(媽媽再也不用擔心實驗室…
原文鏈接:點此閱讀原文:微軟官宣放出一個「小模型」,僅2.7B參數(shù),擊敗Llama2和Gemini Nano 2
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術深度。