2.7B能打Llama 2 70B,微軟祭出「小語言模型」!96塊A100 14天訓(xùn)出Phi-2,碾壓谷歌Gemini nano
AIGC動態(tài)歡迎閱讀
原標(biāo)題:2.7B能打Llama 2 70B,微軟祭出「小語言模型」!96塊A100 14天訓(xùn)出Phi-2,碾壓谷歌Gemini nano
關(guān)鍵字:模型,微軟,性能,數(shù)據(jù),語言
文章來源:新智元
內(nèi)容字?jǐn)?shù):6280字
內(nèi)容摘要:新智元報道編輯:潤 alan【新智元導(dǎo)讀】都快到年底了,大模型領(lǐng)域還在卷,今天,Microsoft發(fā)布了參數(shù)量為2.7B的Phi-2——不僅13B參數(shù)以內(nèi)沒有對手,甚至還能和Llama 70B掰手腕!大模型現(xiàn)在真的是越來越卷了!11月OpenAI先是用GPTs革了套殼GPT們的命,然后再不惜獻(xiàn)祭董事會搏了一波天大的流量。谷歌急了,趕在年底之前倉促發(fā)布了超大模型Gemini,卷起了多模態(tài),甚至不惜「視頻造假」。就在今天,微軟正式發(fā)布了曾在11月Ignite大會上預(yù)告的Phi-2!憑借著2.7B的參數(shù),「小語言模型(SLM)」Phi-2幾乎打穿了所有13B以下的大模型——包括谷歌最新發(fā)布的Gemini Nano 2。通過模型擴(kuò)展和訓(xùn)練數(shù)據(jù)管理方面的創(chuàng)新,Phi-2展現(xiàn)了出色的推理和語言理解能力,在復(fù)雜的基準(zhǔn)測試中,Phi-2的性能可以打平比自己大25倍的模型,甚至略占上風(fēng)。它用非常「苗條」…
原文鏈接:點(diǎn)此閱讀原文:2.7B能打Llama 2 70B,微軟祭出「小語言模型」!96塊A100 14天訓(xùn)出Phi-2,碾壓谷歌Gemini nano
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。