僅需200M參數(shù),零樣本性能超越有監(jiān)督!谷歌發(fā)布時(shí)序預(yù)測基礎(chǔ)模型TimesFM
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:僅需200M參數(shù),零樣本性能超越有監(jiān)督!谷歌發(fā)布時(shí)序預(yù)測基礎(chǔ)模型TimesFM
關(guān)鍵字:時(shí)間,模型,序列,數(shù)據(jù),研究人員
文章來源:新智元
內(nèi)容字?jǐn)?shù):9781字
內(nèi)容摘要:
新智元報(bào)道編輯:LRS
【新智元導(dǎo)讀】TimesFM針對時(shí)序數(shù)據(jù)設(shè)計(jì),輸出序列長于輸入序列,在1000億時(shí)間點(diǎn)數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練后,僅用200M參數(shù)量就展現(xiàn)出超強(qiáng)零樣本學(xué)習(xí)能力!時(shí)間序列預(yù)測在零售、金融、制造業(yè)、醫(yī)療保健和自然科學(xué)等各個(gè)領(lǐng)域無處不在:比如說在零售場景下中,「提高需求預(yù)測準(zhǔn)確性」可以有顯著降低庫存成本并增加收入。
深度學(xué)習(xí)(DL)模型基本上壟斷了「多變量時(shí)間序列預(yù)測」任務(wù),在各個(gè)競賽、現(xiàn)實(shí)應(yīng)用中的表現(xiàn)都非常好。
與此同時(shí),用于自然語言處理(NLP)任務(wù)的大型基礎(chǔ)語言模型也取得了快速進(jìn)展,大幅提升了翻譯、檢索增強(qiáng)生成、代碼補(bǔ)全等任務(wù)的性能。
NLP模型的訓(xùn)練依賴于海量文本數(shù)據(jù),其中數(shù)據(jù)來源多種多樣,包括、開源代碼等,訓(xùn)練后的模型能夠識(shí)別語言中的模式,并具備零樣本學(xué)習(xí)的能力:比如說把大模型用在檢索任務(wù)時(shí),模型可以回答有關(guān)當(dāng)前的問題并對其進(jìn)行總結(jié)。
盡管基于DL的預(yù)測器在很大程度上優(yōu)于傳統(tǒng)方法,并且在降低訓(xùn)練和推理成本方面取得了進(jìn)展,但仍然面臨著諸多難題:
大多數(shù)深度學(xué)習(xí)模型需要長時(shí)間的訓(xùn)練和驗(yàn)證周期,之后才能在新的時(shí)間序列上測試模型;相比之下,時(shí)間序列預(yù)測的基礎(chǔ)模型可以
原文鏈接:僅需200M參數(shù),零樣本性能超越有監(jiān)督!谷歌發(fā)布時(shí)序預(yù)測基礎(chǔ)模型TimesFM
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺(tái),致力于推動(dòng)中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國新智能時(shí)代。