AIGC動態歡迎閱讀
原標題:免訓練加速DiT!Meta提出自適應緩存新方法,視頻生成快2.6倍
關鍵字:視頻,緩存,步驟,質量,團隊
文章來源:量子位
內容字數:0字
內容摘要:
一水 發自 凹非寺量子位 | 公眾號 QbitAI現在,視頻生成模型無需訓練即可加速了?!
Meta提出了一種新方法AdaCache,能夠加速DiT模型,而且是無需額外訓練的那種(即插即用)。
話不多說,先來感受一波加速feel(最右):
可以看到,與其他方法相比,AdaCache生成的視頻質量幾乎無異,而生成速度卻提升了2.61倍。
據了解,AdaCache靈感源于“并非所有視頻都同等重要”。
啥意思??原來團隊發現:
有些視頻在達到合理質量時所需的去噪步驟比其他視頻少
因此,團隊在加速DiT時主打一個“按需分配,動態調整”,分別提出基于內容的緩存調度和正則化(MoReg)來控制緩存及計算分配。
目前這項技術已在GitHub開源,單個A100(80G)GPU 上就能運行,網友們直呼:
看起來速度提升了2~4倍,Meta讓開源AI再次偉大!
“并非所有視頻都同等重要”下面我們具體介紹下這項研究。
先說結論,以Open-Sora是否加持AdaCache為例,使用AdaCache能將視頻生成速度提升4.7倍——
質量幾乎相同的情況下,前后速度從419.60s降低到89.53s。
具體如
原文鏈接:免訓練加速DiT!Meta提出自適應緩存新方法,視頻生成快2.6倍
聯系作者
文章來源:量子位
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...