快手開源 I2V-Adapter,即插即用、輕量級模塊讓靜態(tài)圖像秒變動態(tài)視頻
AIGC動態(tài)歡迎閱讀
原標(biāo)題:快手開源 I2V-Adapter,即插即用、輕量級模塊讓靜態(tài)圖像秒變動態(tài)視頻
關(guān)鍵字:快手,騰訊,華為,模型,視頻
文章來源:AI前線
內(nèi)容字數(shù):0字
內(nèi)容摘要:
作者 | 快手大模型團隊
快手開源圖像生成視頻技術(shù) I2V-Adapter。I2V-Adapter 是基于 Stable Diffusion 的文生視頻擴散模型的輕量級適配模塊。該模塊能夠在不需要改變現(xiàn)有文本到視頻生成(T2V)模型原始結(jié)構(gòu)和預(yù)訓(xùn)練參數(shù)的情況下,將靜態(tài)圖像轉(zhuǎn)換成動態(tài)視頻。研究背景電影,從黑白默片的古樸典雅到特效大片的視覺盛宴,是人類藝術(shù)史上不可或缺的一環(huán)。然而,其誕生之初,竟源于一場關(guān)于馬匹奔跑時四蹄離地狀態(tài)的打賭。1872 年,斯坦福與科恩的這場打賭,讓攝影師穆布里奇利用 24 架照相機捕捉了馬匹奔跑的連續(xù)瞬間,進而通過連續(xù)放映這些照片,賦予了靜態(tài)圖像生命,開創(chuàng)了電影藝術(shù)的先河。
如今,在計算機視覺領(lǐng)域,靜態(tài)圖像到動態(tài)視頻(I2V)任務(wù)同樣面臨著巨大的挑戰(zhàn)。其核心在于如何從單一的靜態(tài)圖像中提煉出動態(tài)的時間維度信息,并確保所生成的視頻在真實性和視覺連貫性上達到高度一致。為了實現(xiàn)這一目標(biāo),當(dāng)前的 I2V 方法大多依賴于復(fù)雜的模型架構(gòu)和龐大的訓(xùn)練數(shù)據(jù)集。例如 Stable Video Diffusion(SVD),通常采用的策略是擴展文本到視頻生成(T2V)模型的輸入層維度
原文鏈接:快手開源 I2V-Adapter,即插即用、輕量級模塊讓靜態(tài)圖像秒變動態(tài)視頻
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實踐案例,助你全面擁抱AIGC。