標(biāo)簽:記憶

鄂維南院士領(lǐng)銜新作:大模型不止有RAG、參數(shù)存儲(chǔ),還有第3種記憶

機(jī)器之心報(bào)道 編輯:陳陳2.4B 的 Memory3比更大的 LLM 和 RAG 模型獲得了更好的性能。近年來,大型語言模型 (LLM) 因其非凡的性能而獲得了前所未有的關(guān)注。然...
閱讀原文

院士領(lǐng)銜推出大模型的第3種記憶:比參數(shù)存儲(chǔ)和RAG都便宜,2.4B模型越級(jí)打13B

夢(mèng)晨 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI給大模型加上第三種記憶格式,把寶貴的參數(shù)從死記硬背知識(shí)中解放出來! 中科院院士鄂維南領(lǐng)銜,上海算法創(chuàng)新研究院等...
閱讀原文

開源視頻版GPT-4o?快速記憶,實(shí)時(shí)問答,拿下CVPR'24長視頻問答競(jìng)賽冠軍

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

Nature最新:劉智慧/孫文斐/Thomas C. Südhof等合作揭示社交學(xué)習(xí)長期記憶的鞏固機(jī)制

來源:小柯生命 2024年7月3日23時(shí),美國斯坦福大學(xué)Thomas C. Südhof及Stephen R. Quake教授團(tuán)隊(duì)(劉智慧和孫文斐為共同第一作者,劉智慧為共同通訊作者),合...
閱讀原文

? 這才是 Vision Pro 的锏

Vision Pro 的所有功能里,「空間照片」和「空間視頻」是我們感受最深的功能。 它們就像容器,把記憶儲(chǔ)存起來;而 Vision Pro 就像「哈利波特」世界里的「冥...
閱讀原文

CAAI名譽(yù)理事長李德毅院士:認(rèn)知的形式化

來源:腦機(jī)接口社區(qū) 近日,中國人工智能學(xué)會(huì)名譽(yù)理事長李德毅院士牽頭3位學(xué)者共同完成《認(rèn)知的形式化》一文,并在《中國基礎(chǔ)科學(xué)》(雙月刊)上發(fā)表。認(rèn)知的...
閱讀原文

麻省理工開發(fā)一款A(yù)I「時(shí)光機(jī)器」,穿越未來和60歲自己對(duì)話,可顯著減輕焦慮

夕小瑤科技說 原創(chuàng)作者 | 付奶茶你有沒有想象過這樣一個(gè)場(chǎng)景,穿越到未來,與未來的自己進(jìn)行一場(chǎng)對(duì)話。 現(xiàn)在借助AI,幻想可以照進(jìn)現(xiàn)實(shí)了。 麻省理工學(xué)院(MITI...
閱讀原文

Agent技術(shù)洞察01:增強(qiáng)大語言模型 Agents 的工作記憶能力

直播預(yù)告 | 6月14日上午10點(diǎn),「智猩猩AI新青年講座」第239講正式開講,莫納什大學(xué)在讀博士馬鑫將直播講解《DiT架構(gòu)在視頻生成模型中的應(yīng)用與擴(kuò)展》,歡迎掃...
閱讀原文

候選CVPR 2024最佳論文!深圳大手香港理工發(fā)布MemSAM:將 「分割一切」模型用于醫(yī)學(xué)視頻分割

作者:梅菜 編輯:李寶珠,三羊 深圳大學(xué)計(jì)算機(jī)與軟件學(xué)院和香港理工大學(xué)智能健康研究中心聯(lián)合提出了一種新穎的超聲心動(dòng)圖視頻分割模型 MemSAM,與現(xiàn)有模型相...
閱讀原文

ChatGPT真能記住你的話嗎?DeepMind與開源大佬揭示LLM記憶之謎

新智元報(bào)道編輯:喬楊 【新智元導(dǎo)讀】LLM有記憶能力嗎?有,也沒有。雖然ChatGPT聊天時(shí)好像可以記住你之前說的話,但實(shí)際上,模型在推理時(shí)記不住任何內(nèi)容,而...
閱讀原文

長短時(shí)記憶RAG來啦,仿照人腦結(jié)構(gòu),成本降低20倍,表現(xiàn)提高20%!

夕小瑤科技說 原創(chuàng)作者 | Richard自從GPT-4問世之后,大模型似乎變得愈發(fā)聰明,擁有了'百科全書'般的知識(shí)儲(chǔ)備。但它們真的已經(jīng)接近人類智慧了嗎? 事實(shí)并非如...
閱讀原文

基礎(chǔ)架構(gòu)競(jìng)爭激烈,LSTM原作者提出指數(shù)門控xLSTM,性能直逼Transformer和Mamba

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自將門創(chuàng)投 作者:seven_ 經(jīng)典長短時(shí)記憶網(wǎng)絡(luò)(LSTM)架構(gòu)最早可以追溯到20世紀(jì)90年代,因其獨(dú)特的常量誤差傳遞(constant error carousel...
閱讀原文

Nature | 從波動(dòng)到穩(wěn)定:小鼠研究揭示工作記憶穩(wěn)定化的神經(jīng)機(jī)制

來源:生物探索 引言工作記憶(Working Memory, WM)是指在短暫時(shí)間內(nèi)存儲(chǔ)和操作信息的能力,它對(duì)大多數(shù)認(rèn)知功能至關(guān)重要。然而,長期以來,關(guān)于工作記憶在群...
閱讀原文

華為最新研究挑戰(zhàn)Scaling Law

克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI“Scaling Law不是萬金油”——關(guān)于大模型表現(xiàn),華為又提出了新理論。 他們發(fā)現(xiàn),一些現(xiàn)象無法用Scaling Law來解釋,進(jìn)...
閱讀原文

神秘模型"gpt2-chatbot"現(xiàn)身,引發(fā)GPT-4.5/GPT-5瘋狂猜想

大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自頭部科技 文丨Congerry OpenAI放出了一個(gè)迷霧彈。 當(dāng)Google、Meta、Anthropic等公司都在猛推大模型的時(shí)候,OpenAI除了對(duì)GPT-4修修補(bǔ)補(bǔ),...
閱讀原文
1234