AIGC動態歡迎閱讀
原標題:高效、可泛化的高斯重建框架,只需3張視圖即可快速推理,45秒便可完成優化
關鍵字:視圖,場景,報告,深度,視角
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com3D 重建和新視圖合成技術在虛擬現實和增強現實等領域有著廣泛的應用。NeRF 通過隱式地將場景編碼為輻射場,在視圖合成上取得了顯著的成功。然而,由于 NeRF 依賴于耗時的逐場景優化,極大地限制了其實用性。為了解決這一問題,出現了一些可泛化的 NeRF 方法,旨在通過網絡前饋的方式從多視圖中重建場景。然而,由于基于 NeRF 的方法需要在射線上查詢密集的點進行渲染,因此速度受到了限制。最近,3D Gaussian Splatting(3D-GS)采用了各向異性 3D 高斯來顯式表示場景,并通過可微分的光柵化器實現了實時高質量的渲染。
然而,3D-GS 同樣依賴于每個場景的優化,每個場景需要幾十分鐘的時間。為了解決這個問題,后續出現了一些泛化性的高斯重建工作,嘗
原文鏈接:高效、可泛化的高斯重建框架,只需3張視圖即可快速推理,45秒便可完成優化
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...