AIGC動態歡迎閱讀
原標題:百萬token上下文窗口也殺不死向量數據庫?CPU笑了
關鍵字:騰訊,向量,英特爾,數據庫,模型
文章來源:量子位
內容字數:8969字
內容摘要:
金磊 夢晨 發自 凹非寺量子位 | 公眾號 QbitAI“Claude 3、Gemini 1.5,是要把RAG(檢索增強生成)給搞死了嗎?”
隨著新晉大語言模型們的上下文窗口(Context Window)變得越發得長,業界人士針對“RAG終將消亡”觀點的討論也是愈演愈烈。
之所以如此,是因為它們二者都是為了解決大模型的幻覺問題(即那種一本正經地胡說八道),可以說是屬于兩種不同頂尖技術流派之間的對峙。
一方面,以Claude 3、Gemini 1.5為代表的流派,陸續支持200K和100萬token的上下文窗口,用大力出奇跡的方式讓大模型能夠精準檢索到關鍵信息來提供準確答案。
另一方面,RAG則是一種外掛知識庫,無縫集成外部資源,為大語言模型提供了準確和最新的知識,以此來提高生成內容的質量。
誠然有很多人在體驗過超長上下文窗口大模型后,覺得這種方式已經讓AI在回答的準確性上做到了突破,無需再用RAG:
而且從Claude、Gemini等玩家在測評榜單的數據來看,在回答準確性上的成績也是屢創新高。
但事實真是如此嗎?不見得。
因為在此期間,與“RAG要消亡了”背道而馳的聲音也是越發堅定:
原文鏈接:百萬token上下文窗口也殺不死向量數據庫?CPU笑了
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...