拖拽P圖技術(shù)又升級了:StableDrag更穩(wěn)、更準(zhǔn),南大、騰訊聯(lián)合打造
AIGC動態(tài)歡迎閱讀
原標(biāo)題:拖拽P圖技術(shù)又升級了:StableDrag更穩(wěn)、更準(zhǔn),南大、騰訊聯(lián)合打造
關(guān)鍵字:騰訊,字節(jié)跳動,模型,本文,動作
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):4674字
內(nèi)容摘要:
機(jī)器之心報道
編輯:杜偉、陳萍去年 5 月,動動鼠標(biāo)就能讓圖片變「活」得研究 DragGAN 吸引了 AI 圈的關(guān)注。通過拖拽,我們可以改變并合成自己想要的圖像,比如下圖中讓一頭獅子轉(zhuǎn)頭并張嘴。
實現(xiàn)這一效果的研究出自華人一作領(lǐng)銜的「Drag Your GAN」論文,于上個月放出并已被 SIGGRAPH 2023 會議接收。相關(guān)的項目在 GitHub 上已經(jīng)積累了 34.5k 的 Star 量。項目地址:https://github.com/XingangPan/DragGAN
之后,新加坡國立大學(xué)和字節(jié)跳動推出了類似的研究 ——DragDiffusion。他們利用大規(guī)模預(yù)訓(xùn)練擴(kuò)散模型,極大提升了基于點(diǎn)的交互式編輯在現(xiàn)實世界場景中的適用性。效果如下動圖所示:盡管取得了很大的成功,但類似的拖拽方案存在兩個主要缺陷,即點(diǎn)跟蹤不準(zhǔn)確和動作監(jiān)督不完整,從而可能導(dǎo)致無法達(dá)到滿意的拖拽效果。
為了克服這些缺陷,學(xué)、騰訊的幾位研究者提出了一種判別式點(diǎn)跟蹤方法并針對動作監(jiān)督采用了基于置信的潛在增強(qiáng)策略,構(gòu)建了一個更加穩(wěn)定和精確的拖拽編輯框架 ——StableDrag。
其中判別式點(diǎn)跟蹤方法能夠精
原文鏈接:拖拽P圖技術(shù)又升級了:StableDrag更穩(wěn)、更準(zhǔn),南大、騰訊聯(lián)合打造
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺