標簽:方法

對抗「概念飄逸」難題!谷歌發布全新時間感知框架:圖像識別準確率提升15%

新智元報道編輯:wewe 【新智元導讀】告別數據健忘癥!機器學習新方法實現「時空穿越」,助力模型適應易變世界。在機器學習領域,概念漂移(concept drift)...
閱讀原文

ControlNet作者新作:AI繪畫能分圖層了!項目未開源就斬獲660 Star

金磊 發自 凹非寺量子位 | 公眾號 QbitAI“絕不是簡單的摳圖?!?ControlNet作者最新推出的一項研究受到了一波高度關注—— 給一句prompt,用Stable Diffusion可...
閱讀原文

基于神經網絡的偏微分方程求解器新突破:北大&字節研究成果入選Nature子刊

機器之心發布 機器之心編輯部近年來,基于神經網絡的偏微分方程求解器在各領域均得到了廣泛關注。其中,量子變分蒙特卡洛方法(NNVMC)在量子化學領域異軍突...
閱讀原文

讓Sora東京女郎唱歌、高啟強變聲羅翔,阿里人物口型視頻生成絕了

機器之心報道 機器之心編輯部有了阿里的 EMO,AI 生成或真實的圖像「動起來說話或唱歌」變得更容易了。 最近,以 OpenAI Sora 為代表的文生視頻模型又火了起...
閱讀原文

想訓練類Sora模型嗎?尤洋團隊OpenDiT實現80%加速

機器之心報道 機器之心編輯部作為 2024 開年王炸,Sora 的出現樹立了一個全新的追趕目標,每個文生視頻的研究者都想在最短的時間內復現 Sora 的效果。 根據 O...
閱讀原文

數量即力量!騰訊揭秘:Agent數量越多,大語言模型效果越好

機器之心專欄 機器之心編輯部來自騰訊的研究者們做了一個關于 agent 的scaling property(可拓展性)的工作。發現:通過簡單的采樣投票,大語言模型(LLM)的...
閱讀原文

機器遺忘同等重要,AI如何忘記不良數據,保護用戶隱私?

夕小瑤科技說 原創作者 | 松果、Python引言:大語言模型中的機器遺忘問題在人工智能領域,大語言模型(LLMs)因其在文本生成、摘要、問答等任務中展現出的卓...
閱讀原文

大模型+智能城市=城市通用智能!港科大(廣州)發布最新「城市基礎大模型UFM」綜述與方案

新智元報道編輯:LRS 【新智元導讀】城市通用智能該如何發展?如何解決概念定義模糊、缺乏系統文獻述評和通用解決方案等難題?城市通用智能(UGI)是一種概念...
閱讀原文

補齊Transformer規劃短板,田淵棟團隊的Searchformer火了

機器之心報道 編輯:PandaTransformer 強大的泛化能力再次得到證明!最近幾年,基于 Transformer 的架構在多種任務上都表現卓越,吸引了世界的矚目。使用這類...
閱讀原文

GPT-4正接管人類數據專家!先驗知識讓LLM大膽預測,準確率堪比傳統方式

新智元報道編輯:桃子 【新智元導讀】終有一天,LLM可以成為人類數據專家,針對不同領域進行數據分析,大大解放AI研究員。在數據科學中,AI研究員經常面臨處...
閱讀原文

OpenAI工程師必備經典《苦澀的教訓》,原來20多年前就有了原型

機器之心報道 編輯:杜偉大量數據學習涌現出來的能力,終于超越了人們的想象。 OpenAI 推出視頻生成模型 Sora 已經一周的時間了,熱度不減,作者團隊還在持續...
閱讀原文

ICLR 2024 Poster:精確且高效的大語言模型低比特量化方法 QLLM|AI新青年講座

「AI新青年講座」由智猩猩出品,致力于邀請青年學者,主講他們在生成式AI、LLM、計算機視覺、機器學習等人工智能領域的最新重要研究成果。 AI新青年是加速人...
閱讀原文

中科院計算所:什么情況下,大模型才需要檢索增強?

夕小瑤科技說 原創作者 | 謝年年、PythonChatGPT等大型語言模型在自然語言處理領域表現出色。但有時候會表現得過于自信,對于無法回答的事實問題,也能編出一...
閱讀原文

Sora出圈,背后DiT也火了!作者NYU謝賽寧官宣全新升級版SiT

新智元報道編輯:好困 【新智元導讀】擴散Transformer(DiT)重磅升級——可擴展插值Transformer(SiT)!雖然核心架構沒變,但在質量、處理速度和使用靈活性方...
閱讀原文

模型融合、混合專家、更小的LLM,幾篇論文看懂2024年LLM發展方向

選自Ahead of AI 作者:Sebastian Raschka 機器之心編譯 編輯:Panda還有 10 個月,2024 年還有很多期待空間。在過去的 2023 年中,大型語言模型(LLM)在潛...
閱讀原文
1111213141521