今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型
關(guān)鍵字:模型,任務(wù),數(shù)據(jù),研究者,表示
文章來(lái)源:夕小瑤科技說(shuō)
內(nèi)容字?jǐn)?shù):7374字
內(nèi)容摘要:
夕小瑤科技說(shuō) 原創(chuàng)編輯 | 松果
引言:探索語(yǔ)言模型在回歸分析中的應(yīng)用回歸分析是一個(gè)強(qiáng)大的工具,能夠準(zhǔn)確預(yù)測(cè)系統(tǒng)或模型的結(jié)果指標(biāo),給定一組參數(shù)。然而,傳統(tǒng)上這些方法僅適用于特定任務(wù)。本文研究者提出了OMNIPRED框架,這是一個(gè)訓(xùn)練語(yǔ)言模型作為通用端到端回歸器的框架,它可以處理來(lái)自多種真實(shí)世界實(shí)驗(yàn)的(x, y)評(píng)估數(shù)據(jù)。通過(guò)使用來(lái)自Google Vizier的數(shù)據(jù),這是世界上最大的黑盒優(yōu)化數(shù)據(jù)庫(kù)之一。廣泛實(shí)驗(yàn)表明,通過(guò)僅使用數(shù)學(xué)參數(shù)和值的文本表示,語(yǔ)言模型能夠進(jìn)行非常精確的數(shù)值回歸。如果給予在多個(gè)任務(wù)上訓(xùn)練的機(jī)會(huì),它們可以顯著超越傳統(tǒng)的回歸模型。
論文標(biāo)題:OmniPred: Language Models as Universal Regressors
論文鏈接: https://arxiv.org/pdf/2402.14547.pdf
OMNIPRED框架簡(jiǎn)介:通用回歸預(yù)測(cè)的新范式OMNIPRED的創(chuàng)新之處:
OMNIPRED是第一個(gè)基于約束無(wú)關(guān)的文本表示的可擴(kuò)展且簡(jiǎn)單的度量預(yù)測(cè)框架,適用于一般輸入空間。
通過(guò)在不同輸入空間和目標(biāo)上進(jìn)行多任務(wù)學(xué)習(xí),OMNIPRED在許多情況下可以勝
原文鏈接:今日arXiv最熱大模型論文:谷歌最新研究,將LLM用于回歸分析任務(wù),顯著超越傳統(tǒng)模型
聯(lián)系作者
文章來(lái)源:夕小瑤科技說(shuō)
作者微信:xixiaoyaoQAQ
作者簡(jiǎn)介:更快的AI前沿,更深的行業(yè)洞見(jiàn)。聚集25萬(wàn)AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機(jī)構(gòu)投資人。一線作者來(lái)自清北、國(guó)內(nèi)外頂級(jí)AI實(shí)驗(yàn)室和大廠,兼?zhèn)湫袠I(yè)嗅覺(jué)與報(bào)道深度。

粵公網(wǎng)安備 44011502001135號(hào)