AIGC動態歡迎閱讀
原標題:將Transformer用于擴散模型,AI 生成視頻達到照片級真實感
文章來源:機器之心
內容字數:9333字
內容摘要:機器之心報道編輯:Panda在視頻生成場景中,用 Transformer 做擴散模型的去噪骨干已經被李飛飛等研究者證明行得通。這可算得上是 Transformer 在視頻生成領域取得的一項重大成功。近日,一項視頻生成研究收獲了大量贊譽,甚至被一位 X 網友評價為「好萊塢的終結」。真的有這么好嗎?我們先看下效果:??很明顯,這些視頻不僅幾乎看不到偽影,而且還非常連貫、細節滿滿,甚至似乎就算真的在電影大片中加上幾幀,也不會明顯違和。這些視頻的作者是來自斯坦福大學、谷歌、佐治亞理工學院的研究者提出的 Window Attention Latent Transformer,即窗口注意力隱 Transformer,簡稱 W.A.L.T。該方法成功地將 Transformer 架構整合到了隱視頻擴散模型中。斯坦福大學的李飛飛教授也是該論文的作者之一。項目網站:https://walt-video-di…
原文鏈接:點此閱讀原文:將Transformer用于擴散模型,AI 生成視頻達到照片級真實感
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...