深挖大模型幻覺!哈佛大學(xué)最新報(bào)告:LLM等價(jià)于眾包,只是在輸出「網(wǎng)絡(luò)」
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:深挖大模型幻覺!哈佛大學(xué)最新報(bào)告:LLM等價(jià)于眾包,只是在輸出「網(wǎng)絡(luò)」
關(guān)鍵字:模型,報(bào)告,主題,問題,
文章來源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報(bào)道編輯:LRS
【新智元導(dǎo)讀】哈佛大學(xué)研究了大型語言模型在回答晦澀難懂和有爭議問題時(shí)產(chǎn)生「幻覺」的原因,發(fā)現(xiàn)模型輸出的準(zhǔn)確性高度依賴于訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量。研究結(jié)果指出,大模型在處理有廣泛的問題時(shí)表現(xiàn)較好,但在面對爭議性或信息不足的主題時(shí)則容易產(chǎn)生誤導(dǎo)性的回答。自ChatGPT發(fā)布以來,用戶的搜索方式、人機(jī)交互都發(fā)生了極大改變,諸如問題回答、文本總結(jié)和交流對話等各種簡單應(yīng)用場景下的體驗(yàn)都有了很大提升,有時(shí)甚至超過了人類的表現(xiàn)。
大模型之所以能生成全面且連貫的文本,其能力主要來源于Transformer模型架構(gòu)和海量預(yù)訓(xùn)練、微調(diào)數(shù)據(jù)集。
不過,大模型還存在一個(gè)頑疾「幻覺」,會(huì)生成一些看似真實(shí)但非事實(shí)、無意義或與給定提示不一致的回應(yīng),可能會(huì)導(dǎo)致錯(cuò)誤信息的傳播,在關(guān)鍵決策應(yīng)用中造成有害后果,甚至導(dǎo)致用戶對AI系統(tǒng)的不信任。之前就發(fā)生過相關(guān)案例,《紐約時(shí)報(bào)》發(fā)表了一篇關(guān)于某位律師使用ChatGPT案例引用的文章,用戶卻沒有意識到故事是虛構(gòu)的;這一也凸顯了幻覺的危害性:普通用戶很難察覺、識別出幻覺。
最近,哈佛大學(xué)的研究人員發(fā)布了一篇報(bào)告,在幾周內(nèi)向各種人工智能模型提出了一系列
原文鏈接:深挖大模型幻覺!哈佛大學(xué)最新報(bào)告:LLM等價(jià)于眾包,只是在輸出「網(wǎng)絡(luò)」
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介: