AIGC動態歡迎閱讀
原標題:LLM等價于眾包,只是在輸出「網絡」!哈佛大學最新報告深挖大模型幻覺!
關鍵字:模型,報告,主題,問題,
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 分享來源 | 新智元自ChatGPT發布以來,用戶的搜索方式、人機交互都發生了極大改變,諸如問題回答、文本總結和交流對話等各種簡單應用場景下的體驗都有了很大提升,有時甚至超過了人類的表現。
大模型之所以能生成全面且連貫的文本,其能力主要來源于Transformer模型架構和海量預訓練、微調數據集。
不過,大模型還存在一個頑疾「幻覺」,會生成一些看似真實但非事實、無意義或與給定提示不一致的回應,可能會導致錯誤信息的傳播,在關鍵決策應用中造成有害后果,甚至導致用戶對AI系統的不信任。
之前就發生過相關案例,《紐約時報》發表了一篇關于某位律師使用ChatGPT案例引用的文章,用戶卻沒有意識到故事是虛構的;這一也凸顯了幻覺的危害性:普通用戶很難察覺、識別出幻覺。最近,哈佛大學的研究人員發布了一篇報告,在幾周內向各種人工智能模型提出了一系列晦澀難懂和有爭議的問題,從認知信任、眾包等角度研究了「大模型為什么會產生幻覺?」。
論文鏈接:https://dl.acm.org/doi/pdf/10.1145/3688007
實驗結果也符合預期,對于具有廣泛的主題,例如的名言等
原文鏈接:LLM等價于眾包,只是在輸出「網絡」!哈佛大學最新報告深挖大模型幻覺!
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...