大模型做時(shí)序預(yù)測(cè)也很強(qiáng)!華人團(tuán)隊(duì)激活LLM新能力,超越一眾傳統(tǒng)模型實(shí)現(xiàn)SOTA
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:大模型做時(shí)序預(yù)測(cè)也很強(qiáng)!華人團(tuán)隊(duì)激活LLM新能力,超越一眾傳統(tǒng)模型實(shí)現(xiàn)SOTA
關(guān)鍵字:時(shí)序,數(shù)據(jù),模型,語言,任務(wù)
文章來源:量子位
內(nèi)容字?jǐn)?shù):3729字
內(nèi)容摘要:
蔚明 投稿自 凹非寺量子位 | 公眾號(hào) QbitAI大語言模型潛力被激發(fā)——
無需訓(xùn)練大語言模型就能實(shí)現(xiàn)高精度時(shí)序預(yù)測(cè),超越一切傳統(tǒng)時(shí)序模型。
來自蒙納士大學(xué)、螞蟻、IBM研究院提出了一種通用框架,結(jié)果成功激活大語言模型跨模態(tài)處理時(shí)序數(shù)據(jù)的能力。
時(shí)序預(yù)測(cè)有益于城市、能源、交通、遙感等典型復(fù)雜系統(tǒng)的決策制定。
自此,大模型有望徹底改變時(shí)序/時(shí)空數(shù)據(jù)挖掘方式。
通用大語言模型重編程框架簡單來說,研究團(tuán)隊(duì)提出了一個(gè)通用框架,將大語言模型輕松用于一般時(shí)間序列預(yù)測(cè),而無需做任何訓(xùn)練。
主要提出兩大關(guān)鍵技術(shù):時(shí)序輸入重編程;提示做前綴。
Time-LLM首先使用文本原型(Text Prototypes)對(duì)輸入的時(shí)序數(shù)據(jù)進(jìn)行重編程,通過使用自然語言表征來表示時(shí)序數(shù)據(jù)的語義信息,進(jìn)而對(duì)齊兩種不同的數(shù)據(jù)模態(tài),使大語言模型無需任何修改即可理解另一個(gè)數(shù)據(jù)模態(tài)背后的信息。
為了進(jìn)一步增強(qiáng)LLM對(duì)輸入時(shí)序數(shù)據(jù)和對(duì)應(yīng)任務(wù)的理解,作者提出了提示做前綴(Prompt-as-Prefix,PaP)的范式,通過在時(shí)序數(shù)據(jù)表征前添加額外的上下文提示與任務(wù)指令,充分激活LLM在時(shí)序任務(wù)上的處理能力。
主要貢獻(xiàn)包括:
1、提
原文鏈接:大模型做時(shí)序預(yù)測(cè)也很強(qiáng)!華人團(tuán)隊(duì)激活LLM新能力,超越一眾傳統(tǒng)模型實(shí)現(xiàn)SOTA
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破