“幻覺”問題根本無解!為什么我們的大模型會(huì)“說胡話”?
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:“幻覺”問題根本無解!為什么我們的大模型會(huì)“說胡話”?
關(guān)鍵字:模型,幻覺,函數(shù),定義,世界
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):8990字
內(nèi)容摘要:
來源:CSDN
整理:王啟隆
“幻覺”(Hallucination),現(xiàn)在已經(jīng)是大語言模型領(lǐng)域無人不知、無人不曉的熱詞。我們在和 ChatGPT 等機(jī)器人對話的時(shí)候,有時(shí)會(huì)遇到生成式人工智能根據(jù)提示詞生造出一些事實(shí)的情況。通俗點(diǎn)說,就是現(xiàn)在的 AI 都有概率「說胡話」,聊著聊著就和你侃大山,答非所問。
張飛哭暈在廁所
最近,一篇關(guān)于幻覺問題的論文就在 Hacker News 上引起了激烈討論,很多開發(fā)者聊著聊著就聊到了哲學(xué)問題上:
而這篇論文的標(biāo)題也非常具有沖擊性——《幻覺不可避免:大型語言模型的內(nèi)在局限性》(Hallucination is Inevitable: An Innate Limitation of Large Language Models),作者是隸屬于新加坡國立大學(xué)計(jì)算學(xué)院的 Ziwei Xu, Sanjay Jain 和 Mohan Kankanhalli。這篇論文試圖證明大語言模型(LLMs)中的幻覺無法完全消除,即使采用現(xiàn)有的幻覺緩解方法也無法完全解決。
論文鏈接:https://arxiv.org/abs/2401.11817v1
如今,大模型廠商各顯神
原文鏈接:“幻覺”問題根本無解!為什么我們的大模型會(huì)“說胡話”?
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:AItists
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)