CVPR 2024丨文本或圖像提示精準(zhǔn)編輯 3D 場景,美圖&信工所&北航&中大聯(lián)合提出 3D 編輯方法 CustomNeRF

AIGC動態(tài)歡迎閱讀
原標(biāo)題:CVPR 2024丨文本或圖像提示精準(zhǔn)編輯 3D 場景,美圖&信工所&北航&中大聯(lián)合提出 3D 編輯方法 CustomNeRF
關(guān)鍵字:編輯,圖像,場景,文本,區(qū)域
文章來源:AI科技評論
內(nèi)容字數(shù):6996字
內(nèi)容摘要:
美圖影像研究院(MT Lab)與中國科學(xué)院信息工程研究所、北京航空航天大學(xué)、中山大學(xué)共同提出了3D場景編輯方法——CustomNeRF,同時支持文本描述和參考圖像作為3D場景的編輯提示,該研究成果已被CVPR 2024接收。1背景自2020年神經(jīng)輻射場(Neural Radiance Field, NeRF)提出以來,將隱式表達推上了一個新的高度。作為當(dāng)前最前沿的技術(shù)之一,NeRF快速泛化應(yīng)用在計算機視覺、計算機圖形學(xué)、增強現(xiàn)實、虛擬現(xiàn)實等領(lǐng)域,并持續(xù)受到廣泛關(guān)注。
有賴于易于優(yōu)化和連續(xù)表示的特點,NeRF在3D場景重建中有著大量應(yīng)用,也帶動了3D場景編輯領(lǐng)域的研究,如3D對象或場景的紋理重繪、風(fēng)格化等。為了進一步提高3D場景編輯的靈活性,近期基于預(yù)訓(xùn)練擴散模型進行3D場景編輯的方法也正在被大量探索,但由于NeRF的隱式表征以及3D場景的幾何特性,獲得符合文本提示的編輯結(jié)果并非易事。
為了讓文本驅(qū)動的3D場景編輯也能夠?qū)崿F(xiàn)精準(zhǔn)控制,美圖影像研究院(MT Lab)與中國科學(xué)院信息工程研究所、北京航空航天大學(xué)、中山大學(xué),共同提出了一種將文本描述和參考圖像統(tǒng)一為編輯提示的CustomNeRF
原文鏈接:CVPR 2024丨文本或圖像提示精準(zhǔn)編輯 3D 場景,美圖&信工所&北航&中大聯(lián)合提出 3D 編輯方法 CustomNeRF
聯(lián)系作者
文章來源:AI科技評論
作者微信:aitechtalk
作者簡介:雷峰網(wǎng)旗下AI新媒體。聚焦AI前沿研究,關(guān)注AI工程落地。

粵公網(wǎng)安備 44011502001135號