蘋果OpenELM:設備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用
AIGC動態(tài)歡迎閱讀
原標題:蘋果OpenELM:設備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用
關鍵字:模型,蘋果,參數(shù),指令,微軟
文章來源:AI范兒
內(nèi)容字數(shù):4370字
內(nèi)容摘要:
點擊上方藍字關注我們“蘋果推出OpenELM,一系列開源大型語言模型可在設備端運行,無需云端支持。包含8款模型,參數(shù)規(guī)模2700萬至30億,部分預訓練與指令調(diào)優(yōu)。旨在賦能開放研究,已引發(fā)社區(qū)關注。性能良好但非頂尖,有望隨社區(qū)優(yōu)化廣泛應用。隨著谷歌、三星和微軟在個人電腦和移動設備領域加速推進生成式人工智能(AI)技術的發(fā)展,全球科技巨頭蘋果公司也不甘示弱,攜OpenELM加入這場激烈的競賽。OpenELM是一系列新穎的開源大型語言模型(LLMs),其獨特之處在于能夠在單個設備上運行,無需云服務器支持,這標志著蘋果在AI領域邁出了重要的一步,打破了其一貫的保密與封閉形象。
OpenELM發(fā)布與特性就在數(shù)小時之前,OpenELM正式登陸AI代碼平臺Hugging Face,為全球開發(fā)者帶來了專為高效文本生成任務設計的小型模型。該系列包含8款模型,其中4款已完成預訓練,其余4款則經(jīng)過指令調(diào)優(yōu),參數(shù)規(guī)模范圍從2700萬到30億不等。參數(shù)數(shù)量反映了模型中人工神經(jīng)元之間的連接數(shù)量,通常與性能強度和功能豐富度成正比,但并非絕對關系。
預訓練是LLM生成連貫、有意義文本的基礎階段,主要通過預測性
原文鏈接:蘋果OpenELM:設備瞬間變聰明,自家AI無需聯(lián)網(wǎng)也能用
聯(lián)系作者
文章來源:AI范兒
作者微信:AI_Insights
作者簡介:AI領域四大媒體之一。 智能未來,始于Prompt!