AIGC動態歡迎閱讀
內容摘要:
新智元報道編輯:Mindy
【新智元導讀】斯坦福大學的研究人員研究了RAG系統與無RAG的LLM (如GPT-4)相比在回答問題方面的可靠性。研究表明,RAG系統的事實準確性取決于人工智能模型預先訓練的知識強度和參考信息的正確性。大語言模型(LLM)雖然功能強大,但容易出現幻覺。
此外,它們受限于其訓練語料庫中包含的知識,因此無法回答有關近期或公開受限信息的查詢。
為了解決上述問題,檢索增強生成(RAG)是一種常用的框架,它在LLM的提示中提供相關檢索內容,獲得相關信息的參考文檔或數據庫,并可以顯著提高模型的準確性。
大多數商業LLM,如ChatGPT、Gemini和Perplexity.ai,已經在它們的Web界面中采用了某種版本的RAG。
例如,ChatGPT使用Bing搜索,而Gemini訪問Google搜索結果。
但當語言模型內部知識與通過RAG提供的信息之間的不一致時,或者當網絡結果不斷變化,并且可能包含過時、錯誤或有害的信息時,這個問題就變得更加復雜了。
因此,對啟用RAG的LLM行為進行客觀評估,與對它們的非RAG對應物進行基準測試同樣重要,特別是目前RAG系統越來
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...