AIGC動態歡迎閱讀
原標題:1.3>7?微軟新模型“以小博大”戰勝Llama2,網友:用Benchmark訓練的吧?
文章來源:量子位
內容字數:4463字
內容摘要:克雷西 發自 凹非寺量子位 | 公眾號 QbitAI一個參數量只有1.3B的大模型,為何引發了全網熱議?原來雖然參數量不大,但效果已經超過了擁有7B參數的Llama2。這個“四兩撥千斤”的模型,是來自微軟最新的研究成果,核心在于只使用少量高質數據。微軟這次發布的開源模型叫phi-1.5,在只支持代碼的1.0版本之上加入了一般場景對話。與一眾卷參數量的模型相比,phi可以說是“劍走偏鋒”,力求把“大…
原文鏈接:點此閱讀原文:1.3>7?微軟新模型“以小博大”戰勝Llama2,網友:用Benchmark訓練的吧?
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...