AIGC動態歡迎閱讀
原標題:“幻覺”問題根本無解!為什么我們的大模型會“說胡話”?
關鍵字:模型,幻覺,函數,定義,世界
文章來源:人工智能學家
內容字數:8990字
內容摘要:
來源:CSDN
整理:王啟隆
“幻覺”(Hallucination),現在已經是大語言模型領域無人不知、無人不曉的熱詞。我們在和 ChatGPT 等機器人對話的時候,有時會遇到生成式人工智能根據提示詞生造出一些事實的情況。通俗點說,就是現在的 AI 都有概率「說胡話」,聊著聊著就和你侃大山,答非所問。
張飛哭暈在廁所
最近,一篇關于幻覺問題的論文就在 Hacker News 上引起了激烈討論,很多開發者聊著聊著就聊到了哲學問題上:
而這篇論文的標題也非常具有沖擊性——《幻覺不可避免:大型語言模型的內在局限性》(Hallucination is Inevitable: An Innate Limitation of Large Language Models),作者是隸屬于新加坡國立大學計算學院的 Ziwei Xu, Sanjay Jain 和 Mohan Kankanhalli。這篇論文試圖證明大語言模型(LLMs)中的幻覺無法完全消除,即使采用現有的幻覺緩解方法也無法完全解決。
論文鏈接:https://arxiv.org/abs/2401.11817v1
如今,大模型廠商各顯神
原文鏈接:“幻覺”問題根本無解!為什么我們的大模型會“說胡話”?
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...