AIGC動態歡迎閱讀
原標題:RAG與Long-Context之爭—沒必要爭
關鍵字:模型,報告,騰訊,長度,文本
文章來源:算法邦
內容字數:5343字
內容摘要:
智猩猩與智東西將于4月18-19日在北京共同舉辦2024中國生成式AI大會,阿里巴巴通義千問大模型技術負責人周暢,「清華系Sora」生數科技CEO唐家渝,云天勵飛“云天天書”大模型技術負責人余曉填,Open-Sora開發團隊潞晨科技創始人尤洋,鴻博股份副總裁、英博數科CEO周韡韡,優必選研究院執行院長焦繼超,科大訊飛人形機器人首席科學家季超,騰訊研究科學家張馳等20+位嘉賓已確認帶來演講和報告,歡迎報名。隨著大模型可以支持的上下文(Context)長度越來越長,網上(好幾個群里都在聊這個話題,也來聊幾句)竟然出現了RAG與Long-Context之爭,是真沒必要。。。主要是兩者不沖突,并不是非A即B、非B即A的關系。
個人觀點:如果類比做檢索系統的話,RAG應該算作粗排,而Long-Context可以算是精排。RAG的本質是通過用戶問題從數據庫/知識庫中找到相關片段內容,再利用大模型查找或總結出答案。Long-Context的本質是將所有文本內容全部灌入到大模型中,用戶問一個問題,再利用大模型查找或總結出答案。
本質區別在于外部知識如何給到大模型,以及給多少到大模型。
這也是大家的所“
聯系作者
文章來源:算法邦
作者微信:allplusai
作者簡介:智猩猩矩陣賬號之一,連接AI新青年,講解研究成果,分享系統思考。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...