AIGC動態歡迎閱讀
原標題:OpenAI Lilian Weng萬字長文解讀LLM幻覺:從理解到克服
關鍵字:模型,事實性,幻覺,樣本,問題
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
編輯:Panda WLilian Weng 出品,必是精品。人會有幻覺,大型語言模型也會有幻覺。近日,OpenAI 安全系統團隊負責人 Lilian Weng 更新了博客,介紹了近年來在理解、檢測和克服 LLM 幻覺方面的諸多研究成果。Lilian Weng,中文名翁麗蓮,是 OpenAI 安全系統團隊負責人。她 2018 年加入 OpenAI,參與了 GPT-4 項目的預訓練、強化學習 & 對齊、模型安全等方面的工作。她的博客深入、細致,具有前瞻性,被很多 AI 研究者視為重要的參考資料(其他博客見文末擴展閱讀)。
大型語言模型的幻覺(Hallucination)通常是指該模型生成不真實、虛構、不一致或無意義的內容?,F在,「幻覺」這個術語的含義已有所擴大,常被用于泛指模型出現錯誤的情況。本文所談到的「幻覺」是指其狹義含義:模型的輸出是虛構編造的,并沒有基于所提供的上下文或世界知識。
幻覺有兩種類型:
上下文幻覺:模型輸出與上下文中的源內容不一致。
外源性幻覺(extrinsic hallucination):模型輸出應該以預訓練數據集為基礎。但是,由于預訓練數據集規模龐
原文鏈接:OpenAI Lilian Weng萬字長文解讀LLM幻覺:從理解到克服
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...