RAG與Long-Context之爭—沒必要爭
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:RAG與Long-Context之爭—沒必要爭
關(guān)鍵字:模型,報(bào)告,騰訊,長度,文本
文章來源:算法邦
內(nèi)容字?jǐn)?shù):5343字
內(nèi)容摘要:
智猩猩與智東西將于4月18-19日在北京共同舉辦2024中國生成式AI大會(huì),阿里巴巴通義千問大模型技術(shù)負(fù)責(zé)人周暢,「清華系Sora」生數(shù)科技CEO唐家渝,云天勵(lì)飛“云天天書”大模型技術(shù)負(fù)責(zé)人余曉填,Open-Sora開發(fā)團(tuán)隊(duì)潞晨科技創(chuàng)始人尤洋,鴻博股份副總裁、英博數(shù)科CEO周韡韡,優(yōu)必選研究院執(zhí)行院長焦繼超,科大訊飛人形機(jī)器人首席科學(xué)家季超,騰訊研究科學(xué)家張馳等20+位嘉賓已確認(rèn)帶來演講和報(bào)告,歡迎報(bào)名。隨著大模型可以支持的上下文(Context)長度越來越長,網(wǎng)上(好幾個(gè)群里都在聊這個(gè)話題,也來聊幾句)竟然出現(xiàn)了RAG與Long-Context之爭,是真沒必要。。。主要是兩者不沖突,并不是非A即B、非B即A的關(guān)系。
個(gè)人觀點(diǎn):如果類比做檢索系統(tǒng)的話,RAG應(yīng)該算作粗排,而Long-Context可以算是精排。RAG的本質(zhì)是通過用戶問題從數(shù)據(jù)庫/知識(shí)庫中找到相關(guān)片段內(nèi)容,再利用大模型查找或總結(jié)出答案。Long-Context的本質(zhì)是將所有文本內(nèi)容全部灌入到大模型中,用戶問一個(gè)問題,再利用大模型查找或總結(jié)出答案。
本質(zhì)區(qū)別在于外部知識(shí)如何給到大模型,以及給多少到大模型。
這也是大家的所“
聯(lián)系作者
文章來源:算法邦
作者微信:allplusai
作者簡介:智猩猩矩陣賬號(hào)之一,連接AI新青年,講解研究成果,分享系統(tǒng)思考。