谷歌重磅:告別RAG,長上下文的大語言模型無需檢索增強(qiáng)

AIGC動態(tài)歡迎閱讀
原標(biāo)題:谷歌重磅:告別RAG,長上下文的大語言模型無需檢索增強(qiáng)
關(guān)鍵字:模型,長上,任務(wù),下文,上下文
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Richard當(dāng)今人工智能領(lǐng)域正在經(jīng)歷一場靜默的。隨著大語言模型(LLM)的快速發(fā)展,它們不僅能夠處理更長的上下文,還展現(xiàn)出驚人的推理和檢索能力。
難道我們要告別基于LLM的檢索增強(qiáng)生成(RAG)了嗎?
結(jié)果還真是這樣,最近谷歌發(fā)布專門用于評估長上下文語言模型的LOFT測試基準(zhǔn),該測試基準(zhǔn)評估長上下文LLM在各種實際任務(wù)中的表現(xiàn),包括信息檢索、問答和數(shù)據(jù)庫查詢等。LOFT的測試結(jié)果顯示,一些最先進(jìn)的長上下文模型在某些任務(wù)上已經(jīng)達(dá)到了與專門訓(xùn)練系統(tǒng)相近的性能水平。
這意味著什么?它可能預(yù)示著AI應(yīng)用的一個新時代的到來。在不久的將來,我們或許只需要一個強(qiáng)大的語言模型,就能完成過去需要多個專門系統(tǒng)才能完成的復(fù)雜任務(wù)。不過,這項研究同樣指出大語言模型存在一些缺陷亟待解決。
論文標(biāo)題:Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?
論文鏈接:https://arxiv.org/pdf/2406.13121
AI界的新挑戰(zhàn)與機(jī)遇近年來,大型語言模型(LLM)的快速發(fā)展為人
原文鏈接:谷歌重磅:告別RAG,長上下文的大語言模型無需檢索增強(qiáng)
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業(yè)、有趣、深度價值導(dǎo)向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務(wù)合作:zym5189

粵公網(wǎng)安備 44011502001135號