今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型
AIGC動態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型
關(guān)鍵字:模型,任務(wù),數(shù)據(jù),研究者,表示
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):7374字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)編輯 | 松果
引言:探索語言模型在回歸分析中的應(yīng)用回歸分析是一個強大的工具,能夠準(zhǔn)確預(yù)測系統(tǒng)或模型的結(jié)果指標(biāo),給定一組參數(shù)。然而,傳統(tǒng)上這些方法僅適用于特定任務(wù)。本文研究者提出了OMNIPRED框架,這是一個訓(xùn)練語言模型作為通用端到端回歸器的框架,它可以處理來自多種真實世界實驗的(x, y)評估數(shù)據(jù)。通過使用來自Google Vizier的數(shù)據(jù),這是世界上最大的黑盒優(yōu)化數(shù)據(jù)庫之一。廣泛實驗表明,通過僅使用數(shù)學(xué)參數(shù)和值的文本表示,語言模型能夠進(jìn)行非常精確的數(shù)值回歸。如果給予在多個任務(wù)上訓(xùn)練的機會,它們可以顯著超越傳統(tǒng)的回歸模型。
論文標(biāo)題:OmniPred: Language Models as Universal Regressors
論文鏈接: https://arxiv.org/pdf/2402.14547.pdf
OMNIPRED框架簡介:通用回歸預(yù)測的新范式OMNIPRED的創(chuàng)新之處:
OMNIPRED是第一個基于約束無關(guān)的文本表示的可擴展且簡單的度量預(yù)測框架,適用于一般輸入空間。
通過在不同輸入空間和目標(biāo)上進(jìn)行多任務(wù)學(xué)習(xí),OMNIPRED在許多情況下可以勝
原文鏈接:今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報道深度。