AIGC動態歡迎閱讀
原標題:拖拽P圖技術又升級了:StableDrag更穩、更準,南大、騰訊聯合打造
關鍵字:騰訊,字節跳動,模型,本文,動作
文章來源:機器之心
內容字數:4674字
內容摘要:
機器之心報道
編輯:杜偉、陳萍去年 5 月,動動鼠標就能讓圖片變「活」得研究 DragGAN 吸引了 AI 圈的關注。通過拖拽,我們可以改變并合成自己想要的圖像,比如下圖中讓一頭獅子轉頭并張嘴。
實現這一效果的研究出自華人一作領銜的「Drag Your GAN」論文,于上個月放出并已被 SIGGRAPH 2023 會議接收。相關的項目在 GitHub 上已經積累了 34.5k 的 Star 量。項目地址:https://github.com/XingangPan/DragGAN
之后,新加坡國立大學和字節跳動推出了類似的研究 ——DragDiffusion。他們利用大規模預訓練擴散模型,極大提升了基于點的交互式編輯在現實世界場景中的適用性。效果如下動圖所示:盡管取得了很大的成功,但類似的拖拽方案存在兩個主要缺陷,即點跟蹤不準確和動作監督不完整,從而可能導致無法達到滿意的拖拽效果。
為了克服這些缺陷,學、騰訊的幾位研究者提出了一種判別式點跟蹤方法并針對動作監督采用了基于置信的潛在增強策略,構建了一個更加穩定和精確的拖拽編輯框架 ——StableDrag。
其中判別式點跟蹤方法能夠精
原文鏈接:拖拽P圖技術又升級了:StableDrag更穩、更準,南大、騰訊聯合打造
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...