AIGC動態歡迎閱讀
原標題:大一統視頻編輯框架:浙大&微軟推出UniEdit,無須訓練、支持多種編輯場景
關鍵字:研究者,編輯,視頻,動作,分支
文章來源:機器之心
內容字數:8077字
內容摘要:
機器之心專欄
機器之心編輯部隨著 Sora 的爆火,人們看到了 AI 視頻生成的巨大潛力,對這一領域的關注度也越來越高。
除了視頻生成,在現實生活中,如何對視頻進行編輯同樣是一個重要的問題,且應用場景更為廣泛。以往的視頻編輯方法往往局限于「外觀」層面的編輯,例如對視頻進行「風格遷移」或者替換視頻中的物體,但關于更改視頻中對象的「動作」的嘗試還很少。UniEdit 視頻編輯結果(動作編輯、風格遷移、背景替換、剛性 / 非剛性物體替換)
本文中,來自浙江大學、微軟亞洲研究院、和北京大學的研究者提出了一個基于文本描述的視頻編輯統一框架 UniEdit,不僅涵蓋了風格遷移、背景替換、剛性 / 非剛性物體替換等傳統外觀編輯場景,更可以有效地編輯視頻中對象的動作,例如將以上視頻中浣熊彈吉他的動作變成「吃蘋果」或是「招手」。
此外,除了靈活的自然語言接口和統一的編輯框架,這一模型的另一大優勢是無需訓練,大大提升了部署的便捷性和用戶使用的方便度。論文標題:UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance E
原文鏈接:大一統視頻編輯框架:浙大&微軟推出UniEdit,無須訓練、支持多種編輯場景
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...