AIGC動態歡迎閱讀
原標題:2億參數時序模型替代LLM?谷歌突破性研究被批「犯新手錯誤」
關鍵字:報告,模型,時間,序列,數據
文章來源:機器之心
內容字數:7215字
內容摘要:
機器之心報道
編輯:張倩、澤南照箭畫靶,跑分自設標準?
最近,谷歌的一篇論文在 X 等社交媒體平臺上引發了一些爭議。
這篇論文的標題是「A decoder-only foundation model for time-series forecasting(用于時間序列預測的僅解碼器基礎模型)」。簡而言之,時間序列預測就是通過分析歷史數據的變化趨勢和模式,來預測未來的數據變化。這類技術在氣象預報、交通流量預測、商業銷售等領域有著廣泛的應用。例如,在零售業中,提高需求預測的準確性可以有效降低庫存成本并增加收入。
近年來,深度學習模型已成為預測豐富的多變量時間序列數據的流行方法,因為它們已被證明在各種環境中表現出色。
但是,這些模型也面臨一些挑戰:大多數深度學習架構需要漫長而復雜的訓練和驗證周期,急需一個開箱即用的基礎模型來縮短這一周期。
谷歌的新論文就是為了解決這一問題而誕生的。在論文中,他們提出了一個用于時間序列預測的僅解碼器基礎模型 ——TimesFM。這是一個在 1000 億個真實世界時間點的大型時間序列語料庫上預訓練的單一預測模型。與最新的大型語言模型相比,TimesFM 要小得多
原文鏈接:2億參數時序模型替代LLM?谷歌突破性研究被批「犯新手錯誤」
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...