首批類Sora模型出現(xiàn),色拉布上線Snap Video,效果優(yōu)于Pika、不輸Gen-2

AIGC動態(tài)歡迎閱讀
原標題:首批類Sora模型出現(xiàn),色拉布上線Snap Video,效果優(yōu)于Pika、不輸Gen-2
關鍵字:視頻,圖像,研究者,時間,模型
文章來源:機器之心
內容字數(shù):9833字
內容摘要:
機器之心報道
編輯:杜偉、蛋醬文生視頻這個戰(zhàn)場,入局的玩家越來越多了。這次是閱后即焚 SnapChat 背后的公司。
最近,OpenAI 視頻生成模型 Sora 的爆火,給基于 Transformer 的擴散模型重新帶來了一波熱度,比如 Sora 研發(fā)負責人之一 William Peebles 與紐約大學助理教授謝賽寧去年提出的 DiT(Diffusion Transformer)。
當然,隨著視頻生成這波 AI 趨勢的繼續(xù)演進,類似架構的模型會越來越多。就在昨天,開發(fā)出 SnapChat 圖片分享軟件的 Snap 公司、特倫托大學等機構聯(lián)合發(fā)布了類似 Sora 的文本生成視頻模型 Snap Video,這次他們使用到了可擴展的時空 Transformer。
相關的論文《Snap Video: Scaled Spatiotemporal Transformers for Text-to-Video Synthesis》已經放出。論文地址:https://arxiv.org/pdf/2402.14797.pdf
項目地址:https://snap-research.github.io/s
原文鏈接:首批類Sora模型出現(xiàn),色拉布上線Snap Video,效果優(yōu)于Pika、不輸Gen-2
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產業(yè)服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號