長短時記憶RAG來啦,仿照人腦結(jié)構(gòu),成本降低20倍,表現(xiàn)提高20%!
AIGC動態(tài)歡迎閱讀
原標(biāo)題:長短時記憶RAG來啦,仿照人腦結(jié)構(gòu),成本降低20倍,表現(xiàn)提高20%!
關(guān)鍵字:模型,記憶,知識,人腦,節(jié)點
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Richard自從GPT-4問世之后,大模型似乎變得愈發(fā)聰明,擁有了”百科全書”般的知識儲備。但它們真的已經(jīng)接近人類智慧了嗎?
事實并非如此,大模型在知識整合和長期記憶方面仍存在明顯短板,而這恰恰是人腦的強項。人類的大腦能持續(xù)不斷地整合新知識,形成強大的長期記憶,為我們的思考和決策提供支持。那么大模型如何才能像人腦一樣擁有高效的知識整合和長期記憶呢?
來自俄亥俄州立大學(xué)和斯坦福大學(xué)的一組科學(xué)家們給出了一個有趣的思路:讓人工智能擁有一個類似人類海馬體的”記憶大腦”。他們從神經(jīng)科學(xué)的角度出發(fā),模仿人腦海馬體在長期記憶中的作用,設(shè)計出一個名為HippoRAG的模型,能夠像人腦一樣高效地整合和搜索知識。實驗表明,這個”記憶大腦”能夠在多跳問答等需要知識整合的任務(wù)上取得大幅提升。這或許指明了讓大模型具備”類人”記憶能力的一個全新方向。
論文標(biāo)題:HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models
論文鏈接:https://arxiv.org/pdf/2405.1
原文鏈接:長短時記憶RAG來啦,仿照人腦結(jié)構(gòu),成本降低20倍,表現(xiàn)提高20%!
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業(yè)、有趣、深度價值導(dǎo)向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務(wù)合作:zym5189