UC伯克利:用大模型預(yù)測未來,準確率超越人類!

AIGC動態(tài)歡迎閱讀
原標題:UC伯克利:用大模型預(yù)測未來,準確率超越人類!
關(guān)鍵字:模型,報告,問題,系統(tǒng),作者
文章來源:夕小瑤科技說
內(nèi)容字數(shù):7804字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)編輯 | 謝年年近年來,語言模型在文本生成、翻譯、情感分析等領(lǐng)域大放異彩,但利用語言模型做預(yù)測的任務(wù)還比較少。這里的預(yù)測任務(wù)指的是根據(jù)現(xiàn)有情況預(yù)測還未發(fā)生的結(jié)果,比如“明天會下雨嗎?”、“4月1號前GPT-5會發(fā)布嗎?”
其實文本生成本質(zhì)上也是一種預(yù)測,根據(jù)輸入的文本序列,預(yù)測下一個單詞或字符。這樣看來大語言模型天然就適合做預(yù)測任務(wù)。
事實真的如此嗎?
今天介紹的這篇文章通過實驗結(jié)果告訴我們沒有任何模型天生擅長預(yù)測,且與人類預(yù)測水平還有一定的差距。
因此,本文沿著改善大模型的預(yù)測能力展開研究。簡單來說,模型需要更加詳細的背景信息和最新的信息才能做出準確的預(yù)測,因此作者增加了多階段豐富的檢索增強過程。另外作者還引導(dǎo)大模型同時給出預(yù)測結(jié)果與推理過程,增加了預(yù)測過程的可解釋性。
同時發(fā)布了一個從5個真實世界的預(yù)測競賽中編制的最大和最新的預(yù)測數(shù)據(jù)集,補充了背景信息的方法在該數(shù)據(jù)集上取得了與人類相當?shù)乃健?br />論文標題:Approaching Human-Level Forecasting with Language Models
論文鏈接:https://arxiv.org/p
原文鏈接:UC伯克利:用大模型預(yù)測未來,準確率超越人類!
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報道深度。

粵公網(wǎng)安備 44011502001135號