AI數(shù)據(jù)訓(xùn)AI,引發(fā)模型大崩潰!牛津劍橋最新研究,登上Nature發(fā)警告

AIGC動態(tài)歡迎閱讀
原標(biāo)題:AI數(shù)據(jù)訓(xùn)AI,引發(fā)模型大崩潰!牛津劍橋最新研究,登上Nature發(fā)警告
關(guān)鍵字:模型,數(shù)據(jù),誤差,樣本,偏差
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 谷雨龍澤我們都知道,AI大模型是需要現(xiàn)成的數(shù)據(jù)來訓(xùn)練,只有喂給AI大量的數(shù)據(jù),AI才能“學(xué)富五車”。為此,不少AI模型在研發(fā)的時候,特別注重數(shù)據(jù)的數(shù)量以及質(zhì)量——就好比上學(xué)的時候老師告訴你們,讀書要讀名著,不能讀亂七八糟的東西是一個道理。
但是學(xué)著學(xué)著,人們發(fā)現(xiàn)了——AI的學(xué)習(xí)速度太快了,如果有一天,AI把所有現(xiàn)成的數(shù)據(jù)都學(xué)完了怎么辦?
于是有人提出來了一個“好點子”——用AI自己生成的數(shù)據(jù)來喂給AI(事實上,現(xiàn)在AI生成的數(shù)據(jù)已經(jīng)無孔不入,AI如果自己上網(wǎng)查資料學(xué)習(xí),說不定吸收的就是AIGC)。
是不是感到興奮了?是不是一下子放輕松了?
先別著急開香檳。近日,一群來自牛津、劍橋等的研究者在《Nature》上發(fā)表了一篇文章,提出了一個值得警惕的觀點:
如果用AI生成的數(shù)據(jù)來訓(xùn)練AI,AI模型會“崩潰”掉!
論文標(biāo)題:《AI models collapse when trained on recursively generated data》
論文鏈接:https://www.nature.com/articles/s41586-024-07566-y
“模型
原文鏈接:AI數(shù)據(jù)訓(xùn)AI,引發(fā)模型大崩潰!牛津劍橋最新研究,登上Nature發(fā)警告
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號