AIGC動態歡迎閱讀
原標題:OpenAI安全系統負責人:從頭構建視頻生成擴散模型
關鍵字:視頻,模型,時間,圖像,卷積
文章來源:人工智能學家
內容字數:19347字
內容摘要:
作者 |Lilian Weng
OneFlow編譯
翻譯|楊婷、宛子琳、張雪聃
題圖由SiliconFlow MaaS平臺生成
過去幾年,擴散模型(Diffusion models)在圖像合成領域取得了顯著成效。目前,研究界已開始嘗試更具挑戰性的任務——將該技術用于視頻生成。視頻生成任務是圖像生成的擴展,因為視頻本質上是一系列連續的圖像幀。相較于單一的圖像生成,視頻生成的難度更大,原因如下:
它要求在時間軸上各幀之間保持時間一致性,這自然意味著需要將更多的世界知識嵌入到模型中。
相較于文本或圖像,收集大量高質量、高維度的視頻數據難度更大,更不用說要獲取文本與視頻的配對數據了。
閱讀要求:在繼續閱讀本文之前,請確保你已經閱讀了之前發布的關于圖像生成的“什么是擴散模型?(https://lilianweng.github.io/posts/2021-07-11-diffusion-models/)”一文。(本文作者Lilian Weng是OpenAI的AI安全與對齊負責人。本文由OneFlow編譯發布,轉載請聯系授權。原文:https://lilianweng.github.io/post
原文鏈接:OpenAI安全系統負責人:從頭構建視頻生成擴散模型
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...