AIGC動態歡迎閱讀
原標題:ECCV 2024 | 引入DiT的原生3D通用框架,適用任意神經場、秒級生成
關鍵字:模型,研究者,方法,數據,視圖
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com論文一作蘭宇時為南洋理工大學(NTU)博士生,導師為 Chen Change Loy。本科畢業于北京郵電大學,目前主要研究興趣為基于神經渲染的 3D 生成模型、3D 重建與編輯。
在 ECCV 2024 中,來自南洋理工大學 S-Lab、上海 AI Lab 以及北京大學的研究者提出了一種原生 3D LDM 生成框架。具體來講,他們針對現有原生 3D 生成模型可拓展性差、訓練效率低、泛化性較差等問題,提出一種基于 3D VAE 和 3D-DiT 的兩階段通用 3D 生成框架 Latent Neural ?elds 3D Diffusion (LN3Diff)。該方法在 Objaverse 數據集上進行了大規模訓練,并在多個基準測試中取得了優異成績,并擁有更快的推
原文鏈接:ECCV 2024 | 引入DiT的原生3D通用框架,適用任意神經場、秒級生成
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...