標(biāo)簽:語義

微軟讓MoE長出多個頭,大幅提升專家激活率

機器之心報道 編輯:Panda WMH-MoE 能優(yōu)化幾乎所有專家,實現(xiàn)起來非常簡單。混合專家(MoE)是個好方法,支持著現(xiàn)在一些非常優(yōu)秀的大模型,比如谷歌家的 Gemi...
閱讀原文

立即預(yù)約 Google I/O 2024 會議直播!百科詳解一夜爆火的全新神經(jīng)網(wǎng)絡(luò)架構(gòu) KAN

? Google I/O 2024 Keynote 主題演講將于 5 月 15 日(下周三)凌晨 1 點舉行,屆時 HyperAI超神經(jīng)會在視頻號和 B 站實時轉(zhuǎn)播,立即預(yù)約不錯過↓ ? 直播結(jié)束后...
閱讀原文

今日arXiv最熱NLP大模型論文:NAACL24實錘語言學(xué)對大模型“負(fù)優(yōu)化”,抽象語義表示+思維鏈有損表現(xiàn)

夕小瑤科技說 原創(chuàng)作者 | Richard大語言模型正以勢不可擋的姿態(tài)席卷自然語言處理領(lǐng)域。在這個語言模型大顯神威的時代,很多任務(wù)都轉(zhuǎn)變?yōu)榱硕说蕉说奈谋旧扇?..
閱讀原文

LeCun上月球?南開、字節(jié)開源StoryDiffusion讓多圖漫畫和長視頻更連貫

機器之心報道 編輯:楊文、亞鸝有了 StoryDiffusion,更加一致性的圖像和視頻生成得到了保障。兩天前,圖靈獎得主 Yann LeCun 轉(zhuǎn)載了「自己登上月球去探索」...
閱讀原文

今日arXiv最熱聯(lián)邦學(xué)習(xí)論文:通信成本降低94%,中科院計算所發(fā)布個性化聯(lián)邦學(xué)習(xí)方法

夕小瑤科技說 原創(chuàng)作者 | Richard引言:你的隱私,聯(lián)邦來守護!想象一下,未來你的手機就像一位貼心的私人助理,能夠洞察你的喜好、日程,甚至預(yù)測你的情緒。...
閱讀原文

ICLR 2024 | 跨領(lǐng)域準(zhǔn)確進行零樣本異常檢測,浙大等提出AnomalyCLIP

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

別再說國產(chǎn)大模型技術(shù)突破要靠 Llama 3 開源了

SuperBench評測顯示,Llama 3不敵國產(chǎn)大模型。作者丨張進 編輯丨陳彩嫻 近日,千呼萬喚之下,Meta終于發(fā)布了開源大模型Llama 3的 8B 和 70B 版本,再次震動 A...
閱讀原文

CVPR 2024 | 字節(jié)提出新一代數(shù)據(jù)集COCONut,比COCO粒度分割更密集

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

谷歌DeepMind發(fā)布Gecko:專攻檢索,與大7倍模型相抗衡

機器之心報道 編輯:陳萍Gecko 是一種通用的文本嵌入模型,可用于訓(xùn)練包括文檔檢索、語義相似度和分類等各種任務(wù)。 文本嵌入模型在自然語言處理中扮演著重要...
閱讀原文

CVPR 2024 | 更高效、更準(zhǔn)確的拖拽編輯 Drag Your Noise

新加坡管理大學(xué)何盛烽團隊聯(lián)合華南師范大學(xué)在CVPR 2024上發(fā)表了工作《Drag Your Noise: Interactive Point-based Editing via Diffusion Semantic Propagatio...
閱讀原文

關(guān)于 RAG、AI Agent、多模態(tài),我們的理解與探索

嘉賓 | 王元編輯 | 李忠良引言:在這個快速發(fā)展的數(shù)字時代,生成式 AI 不僅僅是一個概念,而是正在被塑造成為未來技術(shù)生態(tài)系統(tǒng)的核心。隨著 LLM 的崛起,我們...
閱讀原文

提升生成式零樣本學(xué)習(xí)能力,視覺增強動態(tài)語義原型方法入選CVPR 2024

機器之心專欄 機器之心編輯部雖然我從來沒見過你,但是我有可能「認(rèn)識」你 —— 這是人們希望人工智能在「一眼初見」下達(dá)到的狀態(tài)。 為了達(dá)到這個目的,在傳統(tǒng)...
閱讀原文

顏水成/程明明新作!Sora核心組件DiT訓(xùn)練提速10倍,Masked Diffusion Transformer V2開源

新智元報道編輯:LRS 好困 【新智元導(dǎo)讀】Masked Diffusion Transformer V2在ImageNet benchmark 上實現(xiàn)了1.58的FID score的新SoTA,并通過mask modeling表征...
閱讀原文

清華NLP組發(fā)布InfLLM:無需額外訓(xùn)練,「1024K超長上下文」100%召回!

新智元報道編輯:LRS 【新智元導(dǎo)讀】挖掘大模型固有的長文本理解能力,InfLLM在沒有引入額外訓(xùn)練的情況下,利用一個外部記憶模塊存儲超長上下文信息,實現(xiàn)了...
閱讀原文

從問題到解法!對于大模型RAG技術(shù)的一些復(fù)盤思考

智猩猩和智東西發(fā)起主辦的2024中國生成式AI大會將于4月18-19日在北京舉辦。主會場將進行開幕式、大模型專場、AI Infra專場和AIGC應(yīng)用專場;分會場將進行具身...
閱讀原文