斯坦福新研究:RAG能幫助LLM更靠譜嗎?
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:斯坦福新研究:RAG能幫助LLM更靠譜嗎?
關(guān)鍵字:模型,信息,知識(shí),語言,問題
文章來源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報(bào)道編輯:Mindy
【新智元導(dǎo)讀】斯坦福大學(xué)的研究人員研究了RAG系統(tǒng)與無RAG的LLM (如GPT-4)相比在回答問題方面的可靠性。研究表明,RAG系統(tǒng)的事實(shí)準(zhǔn)確性取決于人工智能模型預(yù)先訓(xùn)練的知識(shí)強(qiáng)度和參考信息的正確性。大語言模型(LLM)雖然功能強(qiáng)大,但容易出現(xiàn)幻覺。
此外,它們受限于其訓(xùn)練語料庫中包含的知識(shí),因此無法回答有關(guān)近期或公開受限信息的查詢。
為了解決上述問題,檢索增強(qiáng)生成(RAG)是一種常用的框架,它在LLM的提示中提供相關(guān)檢索內(nèi)容,獲得相關(guān)信息的參考文檔或數(shù)據(jù)庫,并可以顯著提高模型的準(zhǔn)確性。
大多數(shù)商業(yè)LLM,如ChatGPT、Gemini和Perplexity.ai,已經(jīng)在它們的Web界面中采用了某種版本的RAG。
例如,ChatGPT使用Bing搜索,而Gemini訪問Google搜索結(jié)果。
但當(dāng)語言模型內(nèi)部知識(shí)與通過RAG提供的信息之間的不一致時(shí),或者當(dāng)網(wǎng)絡(luò)結(jié)果不斷變化,并且可能包含過時(shí)、錯(cuò)誤或有害的信息時(shí),這個(gè)問題就變得更加復(fù)雜了。
因此,對(duì)啟用RAG的LLM行為進(jìn)行客觀評(píng)估,與對(duì)它們的非RAG對(duì)應(yīng)物進(jìn)行基準(zhǔn)測(cè)試同樣重要,特別是目前RAG系統(tǒng)越來
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺(tái),致力于推動(dòng)中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國新智能時(shí)代。