小模型時代來了?微軟最小參數(shù)AI模型發(fā)布,性能逼近 GPT-3.5
AIGC動態(tài)歡迎閱讀
原標題:小模型時代來了?微軟最小參數(shù)AI模型發(fā)布,性能逼近 GPT-3.5
關(guān)鍵字:模型,字節(jié)跳動,報告,小米,微軟
文章來源:AI前線
內(nèi)容字數(shù):3704字
內(nèi)容摘要:
作者| 李冬梅
當?shù)貢r間 4 月 23 日,微軟宣布推出其輕量級人工智能模型 Phi-3 Mini 的下一版本,這是該公司計劃發(fā)布的三個小型模型中的第一個。
Phi-3 Mini 可測量參數(shù)僅為 38 億,并在相對于 GPT-4 等大型語言模型更小的數(shù)據(jù)集上進行訓(xùn)練。現(xiàn)已在 Azure、Hugging Face 和 Ollama 上可使用。另外,微軟還計劃發(fā)布 Phi-3 Small(7B 參數(shù))和 Phi-3 Medium(14B 參數(shù))兩個版本。
微軟在去年 12 月時發(fā)布了 Phi-2,其性能與 Llama 2 等更大的型號不相上下。微軟表示,Phi-3 的性能比前一版本更好,其響應(yīng)速度接近比它大 10 倍的模型。
微軟 Azure 人工智能平臺公司副總裁埃里克· 博伊德(Eric Boyd)介紹說,Phi-3 Mini 的性能與 GPT-3.5 等 LLM 不相上下,”只是外形尺寸更小而已”。
與大型人工智能模型相比,小型人工智能模型通常運行成本更低,并且在手機和筆記本電腦等個人設(shè)備上表現(xiàn)更好。據(jù)外媒《The Information》今年早些時候報道稱,微軟正在組建一個專門專注
原文鏈接:小模型時代來了?微軟最小參數(shù)AI模型發(fā)布,性能逼近 GPT-3.5
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實踐案例,助你全面擁抱AIGC。
相關(guān)文章
