AIGC動態歡迎閱讀
原標題:從圖像到視頻:淺談Video Diffusion Models背后的底層原理
關鍵字:視頻,模型,張量,數據,圖像
文章來源:智猩猩GenAI
內容字數:0字
內容摘要:
01前言最近一段時間恰好在推進手上的一個做視頻生成相關的課??題,也是對視頻擴散模型(Video Diffusion Models)這一領域有了頗多認識。其中,視頻擴散模型的很多設計都還要從圖像擴散模型的時代講起。作為一個見證Stable Diffusion誕生,到入行可控圖像生成領域,到產出自己第一篇diffusion model相關的工作,再到目前產出第二個diffusion相關的視頻工作的在讀博士生,某種程度上可以說是見證了video diffusion models發展的歷程。
說到視頻生成這件事,真正讓這個話題走進大家的視野的,其實還是今年年初Sora的首次亮相。Sora的亮相帶火了兩個東西——一個是Diffusion Transformer,另一個則是text-to-video generation這件事。至今時隔Sora亮相已經過去了足足八個月之久,視頻生成領域的卷度貌似沒有我們想象中的那樣夸張。「夸張」這個標準我們可以用2022年到2024年,基于diffusion model的圖像生成技術論文來對比,根據我自己的GitHub調研倉庫結果顯示,2022年相關的文章發表數
原文鏈接:從圖像到視頻:淺談Video Diffusion Models背后的底層原理
聯系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...