蘋果OpenELM:設(shè)備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用

AIGC動態(tài)歡迎閱讀
原標(biāo)題:蘋果OpenELM:設(shè)備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用
關(guān)鍵字:模型,蘋果,參數(shù),指令,微軟
文章來源:AI范兒
內(nèi)容字?jǐn)?shù):4370字
內(nèi)容摘要:
點(diǎn)擊上方藍(lán)字關(guān)注我們“蘋果推出OpenELM,一系列開源大型語言模型可在設(shè)備端運(yùn)行,無需云端支持。包含8款模型,參數(shù)規(guī)模2700萬至30億,部分預(yù)訓(xùn)練與指令調(diào)優(yōu)。旨在賦能開放研究,已引發(fā)社區(qū)關(guān)注。性能良好但非頂尖,有望隨社區(qū)優(yōu)化廣泛應(yīng)用。隨著谷歌、三星和微軟在個人電腦和移動設(shè)備領(lǐng)域加速推進(jìn)生成式人工智能(AI)技術(shù)的發(fā)展,全球科技巨頭蘋果公司也不甘示弱,攜OpenELM加入這場激烈的競賽。OpenELM是一系列新穎的開源大型語言模型(LLMs),其獨(dú)特之處在于能夠在單個設(shè)備上運(yùn)行,無需云服務(wù)器支持,這標(biāo)志著蘋果在AI領(lǐng)域邁出了重要的一步,打破了其一貫的保密與封閉形象。
OpenELM發(fā)布與特性就在數(shù)小時之前,OpenELM正式登陸AI代碼平臺Hugging Face,為全球開發(fā)者帶來了專為高效文本生成任務(wù)設(shè)計的小型模型。該系列包含8款模型,其中4款已完成預(yù)訓(xùn)練,其余4款則經(jīng)過指令調(diào)優(yōu),參數(shù)規(guī)模范圍從2700萬到30億不等。參數(shù)數(shù)量反映了模型中人工神經(jīng)元之間的連接數(shù)量,通常與性能強(qiáng)度和功能豐富度成正比,但并非絕對關(guān)系。
預(yù)訓(xùn)練是LLM生成連貫、有意義文本的基礎(chǔ)階段,主要通過預(yù)測性
原文鏈接:蘋果OpenELM:設(shè)備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用
聯(lián)系作者
文章來源:AI范兒
作者微信:AI_Insights
作者簡介:AI領(lǐng)域四大媒體之一。 智能未來,始于Prompt!

粵公網(wǎng)安備 44011502001135號