能夠在快速實現訓練和壓縮的同時,得到精準的幾何結構與逼真的實時渲染體驗。
原標題:ICLR 2025|高效重建幾何精準的大規模復雜三維場景,中科院提出CityGaussianV2
文章來源:機器之心
內容字數:6578字
高效精準重建大規模復雜場景:CityGaussianV2算法詳解
機器之心AIxiv專欄報道了中科院自動化所研究團隊提出的CityGaussianV2算法,該算法用于大規模復雜三維場景的高效重建,已接受于ICLR 2025,并開源代碼。
1. 背景與挑戰
三維場景重建旨在從圖像恢復場景的三維結構,追求精準幾何和逼真渲染。3D Gaussian Splatting (3DGS)因其效率優勢成為主流,但其離散表征難以精確擬合物體表面,重建幾何精度不足。SuGaR、2DGS、GOF等改進算法在小場景表現出色,但在大型復雜場景中面臨更大挑戰,例如幾何精度下降、顯存、訓練耗時過長等問題,且缺乏有效的幾何重建質量評估手段。
2. CityGaussianV2算法介紹
CityGaussianV2繼承了CityGaussian的子模型劃分和數據分配方案,并使用2DGS作為基元。針對大規模場景重建的挑戰,它主要進行了以下優化:
- 高斯基元優化:引入了基于延展率過濾和梯度解耦的稠密化技術,以及深度回歸監督,有效解決了2DGS在大型場景中存在的模糊偽影、基元過度增長等問題,提升了重建精度和訓練穩定性。
- 并行訓練管線優化:合并了訓練和壓縮過程,刪除冗余步驟,周期性地刪除重要性低的基元,降低了顯存和存儲開銷,加速了模型收斂速度,并提升了對低端設備的友好性。
- 大規模重建幾何評估協議:基于點云的目擊頻次統計,設計了針對大規模場景欠觀測區域的邊界估計方案,有效規避了欠觀測區域重建效果不穩定對指標的影響,使評估更客觀公正。
3. 實驗結果與分析
實驗結果表明,CityGaussianV2在幾何精度(精度P,召回率R,F1-Score)方面均優于現有算法,重建結果細節更準確、完整性更高,渲染質量也與CityGaussian V1相當。同時,CityGaussianV2有效解決了顯存問題,顯著減少了訓練時間和顯存開銷,并能將大規模場景重建結果以約400M的體積存儲。
4. 總結
CityGaussianV2算法針對大規模復雜場景高效精準重建的挑戰,提出了一種基于2DGS基元、并行訓練和高效壓縮的解決方案。它解決了2DGS在大規模場景中的收斂速度和擴展能力問題,并建立了大規模場景下的幾何精度評估基準。實驗結果驗證了該方法的效率、有效性和魯棒性,為大規模三維場景重建提供了新的技術方案。
聯系作者
文章來源:機器之心
作者微信:
作者簡介:專業的人工智能媒體和產業服務平臺