AIGC動態歡迎閱讀
原標題:3D重建范式變革!最新模型MVDiffusion++:無需相機姿態,即可實現高清3D模型重建
關鍵字:圖像,視圖,模型,相機,特征
文章來源:新智元
內容字數:9788字
內容摘要:
新智元報道編輯:LRS
【新智元導讀】受人類視覺系統的啟發,MVDiffusion++結合計算方法高保真和人類視覺系統靈活性,可以根據任意數量的無位姿圖片, 生成密集、高分辨率的有位姿圖像,實現了高質量的3D模型重建。人類的視覺展現出了驚人的靈活性。比如說,在上圖的左側圖像中,雖然人腦無法創建毫米級精確的3D模型,但人類的視覺系統可以結合少量圖像的信息,在腦海中形成一個連貫的3D表現,包括老虎的復雜面部特征或形成玩具火車的積木的排列,即使是對于完全遮擋的部分也是如此。
3D重建技術在過去十五年里以一種根本不同的方式發展。與人類從幾張圖像中推斷3D形狀的能力不同,這項技術需要數百張物體的圖像,估計它們的精確相機參數,并以亞毫米級的精度重建高保真度的3D幾何形狀。
最近,來自西門菲莎大學等機構的研究人員提出了一種結合計算方法高保真和人類視覺系統靈活性的新3D重建范式,其靈感來源于最近多視圖圖像生成模型的發展,尤其是MVDiffusion、MVDream和Wonder3D等,這些方案展示了通過大生成模型生成3D模型的可能性。論文鏈接:https://arxiv.org/abs/2402.1
原文鏈接:3D重建范式變革!最新模型MVDiffusion++:無需相機姿態,即可實現高清3D模型重建
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。